Carnet du petit Tom : Physique, biologie et évolution...

31 janvier 2007

Brisure de symétrie et formation de l'embryon

La brisure de symétrie est un mécanisme très intéressant permettant d'expliquer nombre de phénomène physiques. L'exemple "canonique" est le flambage d'une poutre. L'expérience est simple : considérez une poutre cylindrique rigide, et appuyez sur ses deux extrémités. A partir d'une pression critique, la poutre va se déformer sur le côté (on a tous fait la même chose avec une bonne vieille règle en plastique ;) ). Cette expérience illustre simplement la violation d'un principe proposé par Pierre Curie :

« Lorsque les causes d'un phénomène possèdent des éléments de symétrie, ces éléments de symétrie se retrouvent dans les effets. »


En effet, si la poutre est parfaitement cylindrique et si la pression sur ses extrémités est exercée de façon homogène, le système possède une symétrie cylindrique. Donc si l'on en croit le principe de Curie, le système doit rester symétrique. Or le flambage montre que l'état symétrique est en fait instable : il se passe une bifurcation qui brise spontanément la symétrie du système. Mathématiquement, il se passe exactement la même chose que lors d'une transition de phase (type eau/glace par exemple) : tout d'un coup, un paramètre dépasse un seuil critique et le comportement du système change du tout au tout. Pour être un peu plus exotique, on pense aujourd'hui que les 4 forces élémentaires ne sont en fait que des états de symétrie brisée d'une seule force naturelle. Lorsqu'on parle "d'unifier" la physique, il s'agit en partie de trouver cette super-symétrie...

Venons-en maintenant à la biologie. Lors de la formation de l'embryon se passe un phénomène tout à fait intéressant de brisure de symétrie. En effet, l'embryon de la plupart des animaux semble être au départ une grosse cellule parfaitement sphérique. Comment aboutit-on alors à des animaux ayant deux axes bien distincts : un axe antéro-postérieur et un axe dorso-ventral ? Autrement dit, comment la nature a-t-elle réussi à briser la symétrie sphérique de l'embryon ?

L'exemple le mieux compris est celui de Xenopus (un crapaud, voir illustration ci-contre du procédé). Le premier mécanisme définit en gros l'axe antéro-postérieur. L'ovule est une grosse cellule, et c'est la mère qui crée la première brisure de symétrie en localisant des ARN messagers dans cette cellule, définissant deux pôles (qu'on appelle animal et végétal; le pôle végétal correspond au "jaune" de l'oeuf par exemple). Ce mécanisme est d'ailleurs dans le principe tout à fait similaire à la définition de l'axe antéro-postérieur de la drosophile. La symétrie passe alors de sphérique à cylindrique.

Le second mécanisme de brisure de symétrie va définir l'axe dorso-ventral et est tout à fait fascinant. Le spermatozoïde, lors de son entrée dans l'ovocyte va déclencher une sorte de transition de phase. Des microtubules, auparavant totalement désorientés, vont tout d'un coup s'orienter dans la même direction (à l'aide en particulier de rétroactions positives, typiques de phénomènes de multistabilité pouvant être associés à des transitions de phase). L'effet est spectaculaire : les microtubules tirent sur l'enveloppe rigide de l'ovocyte, appelée cortex, qui va alors littéralement "tourner" autour du cytoplasme de la cellule, (un peu comme si les plaques tectoniques au-dessus du manteau de mettaient toutes à bouger dans la même direction, si bien que l'Europe se retrouverait au pôle Nord !). Ainsi, l'ancien pôle végétal sur le cortex se retrouve "décalé" par rapport au pôle végétal du cytoplasme; une protéine appelée beta-caténine va alors s'y accumuler et ainsi définir la future zone dorsale ce l'embryon ! Le vivant, c'est vraiment merveilleux !

Référence : www.gastrulation.org



30 janvier 2007

Perplexité

J'apprends ce matin que les voleurs de scooter du fils de Sarkozy auraient été retrouvés grâce à un prélévement d'ADN. Au delà de la polémique un peu politicienne (...), je m'étonne de l'affirmation que ces jeunes délinquants aient été retrouvés grâce à leur ADN. Quand et comment leur ADN s'est-il retrouvé dans ce fichier avant ce vol ? Je vois qu'un des mineurs avait déjà été condamné : prélève-t-on systématiquement l'ADN des personnes condamnées ? Par exemple, a-t-on prélevé l'ADN de tous nos hommes politiques condamnés pour des délits financiers ? Quelle est la loi en la matière ?
Je ne sais pas vous, mais moi cette histoire me fait froid dans le dos. Je ne vis pas très bien les délires sécuritaires US (c'est toujours un calvaire de passer la douane, je ne sais pas si vous avez vu le film Babel, mais je peux comprendre que certains pètent les plombs devant des douaniers robocops), je croyais que la France était relativement épargnée...

29 janvier 2007

Mais pourquoi tant de haine ?

Avertissement : ce billet est plein de préjugés honteux d'un physicien qui pense que toutes les sciences sont des sous-domaines de la physique. Comme vous le lirez plus bas, il est totalement inutile d'essayer de me convaincre que j'ai tort (mais enfin vous pouvez toujours essayer, cela peut marcher d'ici quelques mois).


Je peux comprendre qu'on soit critique à l'égard de certains domaines scientifiques, habituellement qualifés de "durs"... Ainsi dans l'ordre de "dureté" croissante,
  • l'économie "mathématisée" me paraît trop peu expérimentale, et les applications réelles de l'économie me semblent parfois à peine juste qualitativement, peut-être parce que beaucoup de postulats sont faux (voir par exemple ce billet ), ou parce qu'on a tendance à oublier que les hypothèses très commodes posées par les matheux sont irréalistes (une technique classique de théoricien pour résoudre un problème est de se placer dans les hypothèses où ce problème devient soluble trivialement ;) ). J'ai parfois l'impression (en lisant polys, blogs, oeuvres diverses) que les économistes sont soit des sociologues statisticiens - donc plutôt du côté des sciences humaines en fait-, soit des matheux déguisés spécialistes des problèmes d'optimisation hyper spécifiques (1). Et je comprends que certaines personnes puissent contester l'application de préceptes économiques pour leur bien à long terme, mais leur apparaissant assez néfastes à court terme.
  • La biologie a le mérite d'être, à la base, une science expérimentale. La plupart des manips sont reproductibles; on peut faire de vraies prédictions en biologie et les tester. Maintenant, il est vrai qu'il y a encore beaucoup de choses qu'on ne connaît pas en biologie. L'autre problème est que la biologie traite par définition du vivant, et donc qu'elle suscite l'opposition de toutes les théories non scientifiques dissertant sur la place de l'homme dans l'univers (du vitalisme au créationnisme, en passant par le teilhardisme ou dans un domaine très différent, la "théorie" à la base de l'homéopathie). Je peux donc comprendre que certaines personnes, profondément choquées par les implications morales et religieuses de théories comme la théorie de l'évolution, rejettent tout en bloc au motif d'une morale supérieure fondant leur vie, et d'après eux inaccessible à la pure la raison.

Mais s'il y a bien un domaine scientifique pour lequel je ne comprends pas les attaques des "non-spécialistes", c'est bien la physique théorique, et en particulier la relativité et la physique quantique. Après tout, le choix d'une théorie physique n'a aucun impact sur notre vie quotidienne, et ne remet pas en cause l'existence de Dieu ou des extra-terrestres. Le contenu "polémique" intrinsèque me paraît à peu près nul. Par ailleurs, nous utilisons au quotidien des appareils dont le principe même repose sur ces deux théories scientifiques, des lecteurs de DVD au GPS, en passant par les puces des ordinateurs. Je ne parle pas du fait que sans le principe d'incertitude de Heisenberg, la matière serait instable et donc nous ne serions même pas là pour en discuter !

Pourtant, il ne faut pas aller très loin pour voir des oppositions farouches à ces deux théories. Les forums de discussion physique sont remplis de "crackpots" affirmant qu'Einstein était un loser ayant fait perdre un siècle à la science (quand il n'a pas volé la théorie de Poincaré) ; Etienne Klein cite souvent l'exemple d'un de ses étudiants à Centrale qui lui affirmait que la relativité restreinte ne pouvait être possible car il ne le "sentait" pas au quotidien autour de lui. J'ai moi-même récemment entendu un professeur d'une grande université étrangère m'affirmer que la physique quantique était nécessairement fausse et qu'il fallait mettre le principe d'incertitude d'Heisenberg à la poubelle (heureusement, il n'enseignait pas la physique)...

D'où vient ce décalage totalement incroyable ? Pourquoi des gens - y compris très sérieux, malgré de preuves irréfutables, continuent à croire qu'il existe une physique différente ? Etienne Klein (encore lui, je ne suis pas forcément fan, mais bon) l'explique très bien ici : "nous préférons le bien-être à la vérité" . Lorsqu'une vérité heurte une de nos croyances profondes, il n'y a rien à faire, il nous est quasi-impossible de renier ce dont nous sommes convaincus. Inutile d'en appeler à une quelconque raison, nous restons campés sur nos positions.

Peut-on alors dépasser les frontières de nos croyances ? C'est très difficile, et cela peut poser des problèmes graves aux scientifiques qui doivent essayer d'être le plus "ouvert" possible a priori. Einstein lui-même ne croyait pas à la mécanique quantique ("Dieu ne joue pas aux dés"); plus exactement, il pensait que c'était une théorie essentiellement phénoménologique. Seulement à la différence de nos crackpots amateurs et autres intelligent designer, Einstein a agi en scientifique : La mécanique quantique ne lui convient-elle pas ? Pas de problème, il propose un paradoxe qui va la mettre en défaut. L'univers doit-il être éternel ? Pas de problème, il ajoute une constante cosmologique (à ses successeurs de l'observer et de trouver sa signification - Einstein, évoluant, dira plus tard que c'était la plus grosse erreur de sa vie). Pourtant, dans le premier cas, Einstein a été pris en défaut, dans le second cas, on s'aperçoit qu'il pourrait bien avoir raison !

La conclusion de tous ces exemples scientifiques, c'est que même si c'est un exercice vivifiant et agréable, il est (malheureusement) probablement inutile de débattre sur le court terme; seul un travail de fond, une expérience approfondie permet de tester et de changer ses croyances et ses positions, et dans tous les cas, les arguments doivent être en chêne massif pour commencer à nous faire bouger... Gardons cela à l'esprit en ces temps de campagne présidentielle !


(1) j'en profite pour passer un message personnel : si quelqu'un sait où je peux trouver une démonstration mathématique du mécanisme de la main invisible du marché, je suis intéressé !

26 janvier 2007

Chemo et Infotaxis

Imaginez que vous soyez une bactérie affamée. Votre but dans la vie : trouver une source d'énergie afin de pouvoir poursuivre ad vitam aeternam vos divisions cellulaires. Evidemment, la nourriture n'est pas disponible partout : dans la nature, au milieu d'un désert nutritif existent de savoureux îlots de sucre... Comment les bactéries détectent-elles ces oasis luxuriantes ?

L'évolution leur a fourni une boîte à outil tout à fait intéressante pour décider dans quelle direction orienter leurs petits flagelles en fonction de l'environnement chimique - procédé qu'on appelle chemotaxie ("chemotaxis" en Anglais). En gros, la bactérie arrive à détecter des gradients de concentration nourriture, et tend à se diriger vers les zones de concentration croissantes, ce qui lui permet à coup sûr de trouver l'endroit où la nourriture est concentrée. Les processus chémotactiques excitent beaucoup les physiciens : en effet, il est beaucoup plus difficile a priori de détecter des gradients de nourriture que des concentrations absolues de nourriture - la bactérie semble effectivement être capable de calculer une dérivée en temps réel. Par ailleurs, il est assez difficile de comprendre comment cette détection peut se faire indépendamment des concentrations absolues de nourriture : en effet, si la bactérie possède des détecteurs tous simples, ceux-ci devraient être saturés à haute concentration et donc être efficaces uniquement pour des concentrations assez basses.

La réponse à ce problème théorique tient en un mot : adaptation. La bactérie possède des mécanismes de rétroaction permettant d'ajuster ces détecteurs à la concentration moyenne observée autour d'elle, et donc de détecter efficacement un gradient quelle que soit la concentration absolue (voir par exemple le papier de Barkai & Leibler sur le sujet (Barkai et al., 1997) ). Ce modèle est largement accepté aujourd'hui, et a fait l'objet de nombreuses études (notamment pour ces relations avec la théorie du contrôle).

Cependant, ce modèle assez simple considère implicitement que la bactérie évolue dans un milieu relativement ordonné, que les concentrations de gradient varient doucement, qu'elles ne sont pas bruitées; tout le contraire du monde réel turbulent, avec des sources de nourritures pouvant même se déplacer. En fait, qu'il s'agisse d'une bactérie perdue dans la nature ou d'un animal guettant sa proie, ou encore d'un papillon suivant les phéromones de sa partenaire (tous ces exemples constituent le même problème), les indices sur la position de l'objet du désir arrivent de façon très intermittente, par bouffées, poussés par le vent ou par les turbulences du milieu. Il faut donc arriver à se décider à partir d'indices en général sporadiques...

Mettons-nous donc à la place de notre bactérie. Elle "sent" l'odeur de la nourriture lui arriver de façon très intermittentes. Plus elle sera proche de la nourriture, plus la fréquence des pulses d'odeur sera élevée : la mesure de la fréquence des signaux donne donc une information sur sa distance à la source. Cependant cette information lui arrive de manière aléatoire : la bactérie doit attendre un certain temps pour "moyenner" les fluctuations et avoir une information exploitable pour choisir dans quelle direction s'orienter. Le risque, c'est que pendant cette attente, la source de signaux bouge si bien que l'information devient vite caduque. On a ici un exemple typique de balance entre exploitation et exploration (dont blop parlait dans un commentaire de ce billet) : si la bactérie n'attend pas assez , elle risque de se tromper de direction; si elle attend trop longtemps, l'information recueillie sera inutilisable.

Comment réaliser correctement cette balance entre exploration et exploitation ? Vergassola et al. proposent une stratégie générale qu'ils appellent "infotaxis" (Vergassola et al., 2007). L'idée est assez élégante : la détection d'odeurs permet de calculer une distribution de probabilité sur la position de la source. A partir de cette distribution de probabilité, on peut quantifier l'information disponible (à l'aide de la formule de l'entropie de Shannon, dont j'avais déjà parlé dans un billet précédent sur l'écologie). Le constat simple, c'est que plus vous êtes proches de la source, plus vous recevez d'information sur la présence de celles-ci : donc une stratégie efficace devrait être de maximiser l'information (minimiser l'entropie) à votre disposition. A chaque instant, la bactérie décide alors de choisir le mouvement qui maximise son gain d'information (quantifiable à partir de la distribution instantanée de probabilité qu'elle utilise comme modèle). Vergassola et al. montrent mathématiquement que le gain d'information combine effectivement deux termes. Si on appelle P(r) la probabilité que la source soit au site r sur lequel vous souhaitez vous déplacer, la dminution d'entropie est la somme :
  1. d'un terme représentant l'exploitation : si la source est en r, c'est gagné, le gain d'information est maximal. Vous avez donc une baisse d'entropie égale à P(r) x (-S) où S est l'entropie de Shannon
  2. d'un terme représentant l'exploration : si la source n'est pas en r, vous gagnez de l'information (avec probabilité 1-P(r)). Le gain d'information compte plusieurs termes : d'abord, vous savez que P(r)=0 - car vous n'avez pas trouvé la source; ensuite, avec cette modification, vous pouvez estimer le nombre de pulses d'odeurs moyens que vous pouvez attendre sur le site r, et ce nombre de pulses vous donne une nouvelle information sur la distance à la source. Si ce nombre de pulses est élevé par exemple, vous gagnez beaucoup d'information et donc vous vous rapprocherez de la source.
L'algorithme d'infotaxis permet donc de faire la balance entre exploitation et exploration, dans le cas en particulier de milieux très dilués et très turbulents. Vergassola at al. montrent que cet algorithme d'infotaxis est plus efficace qu'un algorithme basé uniquement sur l'exploitation (qui irait directement à l'endroit le plus probable pour la source) ou qu'un algorithme basé sur l'exploration (qui irait directement à l'endroit maximisant le nombre de pulses attendus). L'aspect intéressant est que les trajectoires simulées numériquement sont très similaires à des trajectoires réalistes de papillons ou d'oiseaux : zigzags, trajectoires un peu aléatoires, y compris dans le sens contraire au vent, lorsque l'information est diluée (ce qui correspond à une phase d'exploration), puis convergence rapide lorsqu'on se rapproche de la source (phase d'exploitation).



PS : à la relecture, je me suis aperçu que mon clavier avait fourché plusieurs fois entre "exploitation" et "exploration". Un carambar pour celui qui arrive à détecter les erreurs restantes !

Références :


24 janvier 2007

Talks

Je suis en plein milieu d'une série de mini-conférences, qui me tiennent bien occupé. Il y a encore beaucoup de boulot pour arriver à trouver un terrain d'entente avec les biologistes (pas forcément de leur fait d'ailleurs, je dois bien le reconnaître).
Exemple typique (tout est à 100% véridique, d'un côté comme de l'autre) :
Dr Tom Roud (1) : blablabla evolution bliblibli robustness blablabla topology blablabla theroretical approches
Dr SuperfortenBio1 : oui, mais par exemple, moi, dans mon pathway bien particulier j'ai des interactions protéines-protéines sur certaines mutations à faible pénétrance, qu'est-ce que vous pouvez prédire sur mes mutants ?
Dr Tom Roud : ... (se sent inutile après avoir parlé d'un problème complètement différent pendant une heure)... Bon... il faudrait regarder cela en détail, je ne peux pas répondre comme ça à brûle pourpoint...
Dr SuperfortenBio1 : Par exemple, ce serait vraiment super si tu pouvais trouver des prédictions expérimentales sur cet autre problème à la dynamique très très compliquée
Dr Tom Roud : euh... oui bien sûr (ce n'est pas juste une diffusion toute bête ? Zut, je ne comprends rien à la biologie...)
Dr SuperfortenBio2: Oui, enfin bon, au bout du compte, vous les physiciens, vous êtes bien gentils, mais vous n'avez pas vraiment apporté quoi que ce soit au domaine jusque maintenant !
Dr Tom Roud : grmblll....(et Delbruck, et Crick !)... Bon, nous avons un certain nombre de prédictions théoriques sur le système que nous avons étudiés au moins !
Dr SuperfortenBio2 : T'es gentil, mais tes prédictions théoriques, elle m'ont l'air difficiles à vérifier expérimentalement ! Comment tu discrimines entre les modèles d'abord (ha ha, ces théoriciens, c'est vraiment des grosses tanches) ?
Dr Tom Roud : Il est vrai qu'il est sûrement difficile de faire des manips, c'est bien pour cela que je viens devant vous aujourd'hui, pour qu'on puisse voir un peu ce qu'on peut faire ensemble, que je puisse me familiariser avec vos outils et vos problèmes aussi, et que vous mêmes compreniez ce que je peux faire pour vous.
Dr SuperfortenBio3 : (L'oeil qui brille en se rendant compte que je sais programmer) Oh ce serait vraiment super qu'on bosse ensemble ! Par exemple, j'aurais vraiment besoin de quelqu'un pour me faire des animations informatiques pour montrer un peu comment fonctionne le système
Dr Tom Roud : (merde alors, je ne suis pas programmateur de jeux vidéos)... Euh... c'est-à-dire que nous, on cherche plutôt à essayer de modéliser le système, faire des animations, c'est pas vraiment notre tasse de thé... Par exemple, il y a cette interaction que je ne comprends pas, théoriquement il y a un problème, le modèle biologique actuel a l'air incomplet !
Dr SuperfortenBio4 : Hum...Oui, c'est vrai, tu as raison ! Mais bon, les gens pensent avoir compris ce sous-système, plus personne ne l'étudie, les gens se sont lassés, et il n'y a plus de grants là-dessus !
Dr Tom Roud : (gasp) Mais, mais...
Dr SuperfortenBio3 : Oui, c'est sûr... Let us keep in touch ! Ce serait bien que tu viennes à notre group meeting, on a plein de données à traiter et on aurait bien besoin d'aide (un type qui sait faire une transformée de Fourier, ça peut toujours servir) !
Dr Tom Roud : (des données à traiter ? Hum... cela me permettrait de m' infiltrer dans ce labo) Oh oui, super ! En plus, programmer en Matlab, j'adore ça ! (Note pour plus tard : voler le bouquin de Matlab de mon chef...)

Telle est la réaction typique d'un physicien théoricien lâché au milieu d'une meute féroce de biologistes : force est de constater que faire de l'interdisciplinaire, c'est pas toujours facile...

(1) oui, c'est comme cela qu'on m'appelle, ça en jette, non ? Je ne m'en remets pas, moi...

21 janvier 2007

Geekeries du dimanche...

Après une semaine chargée sur ce blog, un peu de détente aujourd'hui :
  • j'ai mis en place un petit sondage en bas à droite pour avoir votre feedback sur ma série de billets sur le développement (vous pouvez donner plusieurs réponses normalement). C'est un sujet que j'aime beaucoup, j'espère avoir contribué à le populariser un peu...
  • pour les fans de Latex, je signale la série de billets de Timothée sur la conversion de références BibTex en html(un exemple ici). Sur ce sujet, j'ai trouvé un site qui permet de convertir directement les références de pubmed. Timothée m'indique également qu'on peut faire tout cela avec CiteUlike, mais je n'ai pas encore mis les mains dans le cambouis.
  • J'ai découvert (grâce à mon ami Mawashi) la possibilité de mettre des "post-it" sur son bureau sous Linux. Un outil bien pratique sous debian : tomboy.
  • Dans la série logiciels utiles, pour les expatriés qui veulent regarder (voir enregistrer) la télé française sur le web sous linux, une extension firefox : unplug. Cette extension est hyper pratique : pas besoin d'installer des plug-in ininstallables de toutes façons, elle détecte les flux dans la page et permet de les jouer (et théoriquement de les enregistrer). Cela marche assez bien, je regarde régulièrement le JT et les guignols (et bien sûr Arrêt sur Images). C'est d'ailleurs amusant : le site de Canal+ vous demande normalement de vous identifier, mais le flux est en fait en accès libre non sécurisé, donc vous pouvez très bien passer outre en tapant en ligne de commande l'adresse du flux (qui est fonction de la date uniquement).
  • Pour finir, parlons un peu de ce blog. Voici la courbe de fréquentation sur douze mois, depuis la création de mon petit compteur en bas à droite. L'heure de faire un petit bilan. Ce blog a été d'abord fréquenté par un cercle très restreint (en gros mes amis à qui j'avais donné l'adresse). Je ne souhaitais pas trop attirer l'attention; j'avais très envie de parler de science et de vulgariser, mais à dire vrai ma crainte numéro 1 était qu'une connaissance scientifique arrive à m'identifier, j'avais même interdit quelques temps à google de me référencer. En Octobre/Novembre germe l'idée du "C@fé des Sciences", j'ai de plus en plus de visites. A ce moment, je m'aperçois qu'il est impossible de faire une recherche avec google sur mon site; comme ce n'était pas très cohérent, j'autorise alors de nouveau google à référencer, à peu près au moment de la création du "C@fé des Sciences". L'effet conjugué est cette jolie croissance de fréquentation sur les derniers mois. Merci de vos visites, chers lecteurs ! En ce moment, il y a entre 50 et 60 clics sur ce blog par jour (dont 30 à 40% de visiteurs "réguliers"), avec des pics à 70 les bons jours. Google me référence très bien ! Au rayon des requêtes populaires, je suis deuxième sur "cosanguinité", très bien placé sur des requêtes du genre "bicoid développement" ou "urbilateria"; je suis assez étonné que mon google rank sur ces sujets hautement spécialisés soit aussi haut, j'en suis évidemment très content, mais pour être complètement honnête, cela m'embête un peu : si je veux préserver mon anonymat, il va falloir que je fasse très très attention à ce que je publie pour ne pas donner trop d'indications sur ce que je fais au quotidien. En troisième position des requêtes viennent mes déboires informatiques : "restaurer GRUB debian" marche assez bien ! A ma grande surprise, assez peu de requêtes drôles ou croustillantes aboutissent sur mon blog par hasard, c'est un peu la déception de ce côté-là, ici on est beaucoup trop sérieux ;) .
PS : Il y a 214 ans, Louis XVI était exécuté. Je suis en train de lire une série de livres sur le Révolutoin française par François Furet : c'est passionnant !

20 janvier 2007

Odalisque, mille-pattes et segmentation


Vous avez sans doute déjà entendu parler de la Grande Odalisque d'Ingres, bien connue pour sa descente de rein très exagérée... Il se trouve en effet que l'anatomie de la belle n'est pas réaliste, puisqu'elle compterait trois vertèbres surnuméraires (une étude récente irait même jusque cinq). De fait, le nombre de vertèbres chez l'adulte est normalement très contrôlé : à l'intérieur d'une espèce, il n'y a en général pas de variabilité. J'ai déjà parlé ici du processus de somitogenèse lors de la formation de l'embryon, couplant une horloge de segmentation à un front de différentiation. Or, des expériences de chocs par température chez différents vertébrés ont montré qu'il n'y a rien d'intrinsèque dans le processus de formation limitant le nombre de somites. Cela signifie en fait qu'il y a un autre processus chargé d'arrêter la somitogenèse, mais indépendamment du nombre de somites déjà formé.

Cela rend par conséquent le processus assez plastique : en gros, il existe le module de formation de somites (horloge+front) qui est capable de générer des somites ad vitam aeternam, et un autre module qui va stopper le module précédent et fixer le nombre de somites. Une mutation sur ce deuxième module, et vous changez le nombre de vertèbres : c'est probablement ainsi que les serpents par exemple (plus de 200 vertèbres !) ont pu évoluer.

Des découvertes spectaculaires assez récentes viennent de confirmer cette vision. Retournons 500 millions d'années en arrière et rendons visite à l'ancêtre commun de tous les bilatériens (en gros tous les animaux ayant un plan de symétrie), j'ai nommé Urbilateria. Une des grandes questions du domaine de l'"Evo-Devo" est de savoir si Urbilateria était segmenté (i.e. son corps décomposable en segments "indépendants") : si c'était le cas cela signifierait que tous les processus de segmentation connus sont homologues. Une vertèbre humaine et un segment du corps d'un insecte seraient des structures dérivant d'une même structure ancestrale ! Or, il se trouve que plusieurs indices récents confirment cette homologie (j'en parle dans le billet sur Urbilateria). Et il se trouve que du côté de nos amis invertébrés existent des animaux tout à fait fascinant, les mille-pattes. Le processus de formation des segments des mille-pattes est très analogue à celui des vertébrés, avec des segments se formant les uns après les autres dans une zone de croissance. En général et comme pour les vertébrés, le nombre de segments est fixé. Grosse surprise récente : dans certaines espèces, on s'est aperçu que le nombre se segments variait d'un individu à l'autre ! Ainsi, non seulement les femelles ont plus de segments que les mâles (comme notre Odalisque ;) ), mais encore le nombre de segments dépend directement des conditions environnementales : lattitude, climat... confirmant de façon assez étonnante l'existence et la plasticité du second module arrêtant la segmentation. Je trouve cela fascinant !

Références :

Arthur W, Chipman AD (2005) The centipede Strigamia maritima: what it can tell us about the development and evolution of segmentation. BioEssays 27:653-660.

Un article plus détaillé sur pharyngula.org .




19 janvier 2007

Présidentielle et recherche

On parle beaucoup de la recherche scientifique en ce moment. Nos deux candidats "principaux " aussi :
Propositions de Sarkozy : ici et
Propositions (?) de Royal : ici
Voir aussi ce petit résumé du nouvel obs'.
Voir enfin ce billet de matthieu.
Ce matin, très bonne intervention sur France Inter de Bertrand Monthubert (que j'approuve à 100%), le débat qui suivait était aussi instructif.

Je vais essayer de rester le plus objectif possible même si comme tout le monde j'ai mes préférences politiques. Je vais essentiellement me concentrer sur Sarkozy car il propose en gros de complètement changer le système, et je vais tenter d'expliquer pourquoi je pense qu'il faut faire très attention, d'autant qu'au fond le système ne marche pas si mal (voir ici sur ce blog) et qu'un simple rattrapage de moyens pourrait peut-être aussi bien faire l'affaire.


Il y a à la fois beaucoup et peu à dire sur ces différents discours. Sarkozy aligne les constats réalistes, mais propose des recettes toute faites et à mon avis inadaptées. Royal reste très générale, ne propose pour l'instant rien de très concret contrairement à Sarkozy, mais trouve le moyen en quelques lignes d'insister sur certains points qui me tiennent à coeur.

Commençons par les points communs: les deux candidats font le constat du manque de moyen de la recherche, de la nécessité d'augmenter le budget. L'autre constat que tout le monde fait, c'est la nécessité de renforcer considérablement les universités. C'est bien, mais cela ne mange pas de pain, être pour la recherche et renforcer les universités, c'est comme être favorable à l'écologie, tout le monde parle de "prise de conscience" mais cela ne se traduit pas forcément dans les actes.

Le discours de Sarkozy est long et intéressant car il fait des constats assez vrais (notamment sur le problème du trop petit nombre d'étudiants dans les cycles supérieurs), je vous en recommande la lecture. Ses propositions tiennent en un mot : autonomie. La référence sous-jacente, c'est l'université américaine où "on [peut] faire du sport et [où] les bibliothèques sont ouvertes le dimanche".

Je vais essayer de donner mon avis sur la question, en fonction de ce que je vois ici. Encore une fois, c'est éminemment subjectif, et je peux me tromper, n'étant pas un "spécialiste" de l'université américaine. Parlons donc de l'université américaine que Sarkozy souhaite transposer en France: celle-ci a effectivement la "liberté de recruter ses étudiants" (1). Ce qui se passe aux Etats-Unis est que les universités sont du coup, il me semble, très hiérarchisées. Le système américain ne cherche pas à "élever" le niveau des élèves : il envoie au contraire les élèves dans des universités en fonction de leur niveau. Les universités ne sont pas égales : on parle souvent d'Harvard ou de Yale, mais derrière les meilleures universités, il y a une foule de petites universités qui quadrillent le territoire avec des niveaux très différents. Le corollaire de cette liberté de recruter, c'est que chaque étudiant peut en quelque sorte trouver une université qui convient à son niveau. Or, en France, la logique est très différente : l'université doit être un lieu de prestige par définition, et peut servir à l'aménagement du territoire; on voit bien comment les élus locaux essaient d'avoir des formations universitaires de qualité dans leur ville. Donner la liberté de choisir ses étudiants se traduirait mécaniquement par plus de sélection à l'entrée dans un premier temps, et donc probablement moins d'étudiants étant donné toutes les difficultés actuelles. Donner la "liberté de recruter" sans réformer la façon de penser le réseau entier des universités serait donc à mon avis catastrophique.

L'autonomie pour Sarkozy, c'est aussi "la liberté de recruter les meilleurs professeurs à travers le monde. [Il] veut que les chercheurs du monde entier viennent enseigner à nos étudiants dans nos universités". Pourquoi les chercheurs vont-ils dans les universités américaines ? Les raisons majeures sont à mon avis que les US sont très bien pour :
  • avoir une masse critique de recherche scientifique autour de soi pour interagir
  • avoir des moyens pour fonctionner, des bons salaires
  • avoir des étudiants de thèse pour travailler pour soi
  • être simplement reconnu socialement
Premier point : la masse critique existe aux Etats-Unis, en particulier parce qu'il y a beaucoup de petites universités derrière les grosses universités, beaucoup d'interactions, et de gros centres élitistes. En France, on voudrait souvent sélectionner, garder le haut de la pyramide et jeter le reste. Or, je pense que si on veut une élite qui marche bien, il faut les deux, à la fois une concentration de moyens, mais aussi une base nombreuse, fournie à proximité de ces centres élitistes; l'élite doit faire des aller-retour avec la base. Attention donc à ces grands projets de concentration de moyens ayant pour corollaire la diminution du "mammouth": Claudie Haigneré avait dit en son temps qu'elle voulait "moins de chercheurs, mais plus efficaces". Aux Etats-Unis, il y a toutes sortes de débouchés dans le monde académique : certes il y a les "meilleurs professeurs", mais il y a aussi les "research assistant", les professeurs dans des universités d'undergraduates plus spécialisées dans l'enseignement et faisant peu de recherche; par ailleurs et contrairement à ce qu'on veut faire croire, il y a bien emplois permanents et recherche sur le long terme de ce côté de l'Atlantique. On ressent une vraie sécurité dans la recherche ici; la conviction qu'on trouvera quelque chose quelque part, même si on veut rester dans l'académique...

En ce qui concerne les moyens, Sarkozy préconise plus "les fondations, des donateurs, des entreprises qui doivent pouvoir financer des universités comme dans toutes les grandes démocraties du monde". Incontestablement, nous sommes encore dans le modèle américain. J'ai déjà expliqué sur ces pages mon opposition drastique au financement de la recherche par la charité. J'ajoute qu'il y a un grave problème culturel en France : je pense que personne ne donnerait pour son université ou pour une fondation scientifique en quantité suffisante (on parle de Fondation type Fondation Gates ici). Le niveau de philanthropie est un marqueur social aux US : il suffit de lire les dernières pages des livrets de l'opéra pour se rendre compte que le don à des oeuvres ou à des universités est un rite indispensable pour les hautes classes sociales. Je ne crois pas du tout à cela en France où les personnes aisées préfèrent s'expatrier pour payer moins d'impôts (vous pensez que Johnny va financer une fondation ?).
Toujours dans la rubrique "moyens", Sarkozy parle de "la liberté de définir des programmes de recherche et de passer des partenariats avec les entreprises pour que ces programmes soient en partie financés par elles". On est pile dans la thématique actuelle (voir le billet de Benjamin sur le sujet). Cependant, la dichotomie entre université et entreprises est en grande partie le fait des entreprises aujourd'hui. Bertrand Monthubert soulignait par exemple dans son intervention d'aujourd'hui comment les entreprises françaises se sont fait piquer la technologie des magnéto résistances par les boîtes américains. L'une des raisons est qu'il n'y a pas assez de docteurs dans les entreprises, que celles-ci ne sont donc pas à même de faire de la veille technologique par exemple. Peu de débouchés implique un doctorat peu attractif; la recherche est un sacerdoce et peu s'engagent sur cette voie. Cela rejoint en fait le troisième point : avoir des étudiants. J'ai déjà expliqué ici pourquoi je pensais que c'est illusoire sur le court terme en France, où le doctorat n'est absolument pas reconnu. Je ne reviendrai pas dessus dans ce billet d'ores et déjà très long. C'est à mon avis le noeud gordien du problème, tant qu'on n'aura pas résolu celui-ci, toute tentative de réforme dans le sens du système américain sera contre-productif. La solution sur ce plan-là est à mon avis claire : pour avoir plus d'étudiants, il faut plus de débouchés, et pour avoir plus de débouchés, il faut que les entreprises embauchent les docteurs. Pour convaincre les entreprises d'embaucher les docteurs (plutôt que des ingénieurs), il faut qu'elles soient convaincues qu'un docteur est plus utile, et pour cela il faut que la recherche marche mieux d'abord et avant tout, et cela passe nécessairement par plus de moyens pour atteindre enfin les fameux 3% du PIB. Je pense donc que c'est à l'Etat ici d'assumer son rôle, d'amorcer la pompe en finançant des projets applicables, et de se substituer dans un premier temps aux entreprises trop frileuses tout en incitant celles-ci à investir dans la recherche. Je ne souscris donc évidemment pas aux conclusions du rapport récent qui affirme que l'Etat finance bien assez la recherche : cela me paraît être une conclusion à courte vue, faisant abstraction des difficultés de l'application des découvertes en entreprise en France, et cela sent la conclusion "sur commande". En somme, je pense que c'est à l'Etat d'avancer l'argent non donné aux organismes de recherche, en attendant que les entreprises jouent leur rôle.

Quatrième point : la reconnaissance sociale. Un point en fait crucial : combien de jeunes chercheurs français se sont expatriés car ils se sont sentis rejetés du système français ? Cette reconnaissance passe par le salaire, mais pas seulement. Si Sarkozy nous parle brièvement des expatriés français dans son long discours (au milieu des traders à Londres, et en compagnie des rock-stars dans sa récente sortie sur Johnny), j'avoue que ma première réaction en lisant sa proposition d'attirer les meilleurs étrangers a été :"et si on retenait déjà les meilleurs français ?". "Les chercheurs américains ont des prix Nobel pendant que les nôtres manifestent dans la rue" : je garde en mémoire la réaction de son porte-flingue Devedjian (futur premier ministre ?) lorsque les chercheurs manifestaient pour protester contre les coupes drastiques dans le budget du CNRS opérées sous son gouvernement UMP, sachant que Sarkozy a été ministre des finances durant cette période et a donc nécessairement arbitré financièrement sur les moyens de la recherche. Combien de fois entend-on en France l'équation "chercheur=fégnasse" ? Comment qualifier cette espèce de défiance systématique de certains à l'égard des chercheurs (y compris dans les entreprises et y compris dans le milieu même de la recherche à l'égard des jeunes) alors que ces mêmes chercheurs réussissent très bien une fois partis ?

Sur ce point, je ne peux m'empêcher de lire dès le début du non-projet de Ségolène Royal

Nombre de jeunes chercheurs ne trouvent qu’à l’étranger les moyens de travailler qu’on leur refuse ici. Exil forcé plutôt que mobilité choisie et temporaire. Perte sèche pour le pays. Les chercheurs sont las des incantations sur la recherche moteur de la croissance et du rayonnement français car les actes les démentent. Ils s’inquiètent d’une gestion technocratique et comptable qui érige le court-terme et la précarité en dogme.


Même si elle ne propose rien, cela résume parfaitement ma position personnelle sur la question. Je ne sais pas si ses "désirs d'avenir" vont déboucher sur quelque chose de concret, mais ce dont je suis sûr c'est qu'ayant commencé mon parcours scientifique en 2001, j'ai clairement vu en quelques années une dégradation très forte des conditions de travail, des budgets. Je n'ai donc que moyennement confiance dans le parti au pouvoir actuellement pour réformer une recherche qu'ils ont sciemment dégradée.

Voilà, je m'arrête là après ce billet bien trop long en espérant ne pas avoir dit trop de bêtises et en espérant susciter le débat et la réflexion. Pour conclure, le problème de Royal, c'est qu'elle ne propose rien de très concret pour l'instant; espérons qu'elle se montrera plus participative qu'elle ne l'a été avec SLR. Mon problème avec Sarkozy, c'est que je pense qu'il veut appliquer une recette toute faite pour des raisons un peu idéologiques, sans avoir vraiment suffisamment compris et analysé le problème.


(1) Liberté toute relative toutefois quand on sait que les établissements américains ont ce qu'on appelle une "clause des héritiers", afin de recruter préférentiellement les enfants des anciens élèves.

17 janvier 2007

Breaking news...

Avec trois jours de retard, un peu la tête dans le guidon le Roud...


Félicitations Titechofie et son Homme !
Et welcome to Esther !


Plus de détail chez les gros manches ...

16 janvier 2007

Pensée et algorithmes génétiques

Je lis pas mal de livres sur l'optimisation numérique et ses liens avec les algorithmes génétiques en particulier. Je parcours en ce moment même Genetic Algorithms, in search, optimization and machine learning, de David E. Goldberg. Goldberg cite cet extrait d'un livre d'Hadamard , The psychology of invention in mathematical field :

We shall see a little later that the possibility of imputing discovery to pure chance is already excluded...On the conrary, that there is an intervention of chance but also a necessary work of unconsciousness, the latter implying and not contradicting the former... Indeed, it is obvious that invention or discovery, be it in mathematics or anywhere else, takes place by combining ideas


Ainsi Hadamard suggère-t-il que toute découverte est le processus d'une recombinaison aléatoire de pensées. L'homme sait ensuite reconnaître les pensées créatrices, les bonnes idées innovantes. C'est exactement le procédé à la base des algorithmes génétiques : le hasard est dans la recombinaison des différents génomes articifiels, ensuite, l'algorithme utilise une fonction de score pour évaluer l'adaptation des nouveaux circuits génétiques produits. Alors, le cerveau ne serait-il qu'une machine très perfectionnée permettant de recombiner les idées, puis d'évaluer la pertinence de celles-ci ? Autrement dit, le mécanisme de la pensée ne serait-il qu'un algorithme génétique un peu sophistiqué (*) ?


(*) Si l'on en croit le No Free Lunch Theorem, cela signifierait alors qu'il y aurait des domaines entiers tout simplement inconcevables par l'esprit humain, celui-ci étant adapté spécifiquement à certains problèmes. Poussons un peu plus loin le raisonnement pseudo-philosophique : j'imagine alors que les vérités accessibles par raisonnement sont les vérités démontrables, autrement dit tout ce qui peut être vérifié par une machine de Turing. Les vérités non accessibles par le raisonnement (non démontrables, non décidables) ne sont alors peut-être pas complètement inaccessibles, il s'agirait du domaine de l'intuition de Turing :

In his investigation, Turing introduced the idea of an ‘oracle’ capable of performing, as if by magic, an uncomputable operation. (...) An oracle is infinitely more powerful than anything a modern computer can do, and nothing like an elementary component of a computer. (...) But these oracle-machines are not purely mechanical. They are only partially mechanical, like Turing's choice-machines. Indeed the whole point of the oracle-machine is to explore the realm of what cannot be done by purely mechanical processes. Turing emphasised:

We shall not go any further into the nature of this oracle apart from saying that it cannot be a machine.

Turing's oracle can be seen simply as a mathematical tool, useful for exploring the mathematics of the uncomputable. (...) Thus Turing opened new fields of investigation in mathematical logic. However, there is also a possible interpretation in terms of human cognitive capacity. On this interpretation, the oracle is related to the ‘intuition’ involved in seeing the truth of a Gödel statement.

15 janvier 2007

Un nouveau c@fetier

Notre petit groupe de blogueurs intéressés par la science s'agrandit. Pour ceux qui ne le savent pas encore, nous avons récemment eu le plaisir d'accueillir dans le c@fé des sciences dvanw. Son blog, l'ameublement du cerveau, est assez éclectique; dvanw est graphiste professionnel et particulièrement doué pour la vulgarisation scientifique (voir par exemple son billet sur le no-free lunch theorem ou encore sur l'émergence de la vie, pour compléter deux thèmes abordés ici). Bienvenue dvanw !

13 janvier 2007

Classique : l'expérience de Luria & Delbruck

L'expérience de Luria & Delbruck est un très grand classique de biologie. Il s'agit également de l'un des premiers papiers de modélisation mathématique d'une expérience, ce qui en fait un des précurseurs du mouvement actuel vers la "biologie intégrative". Luria et Delbruck ont reçu le prix Nobel en 1969, en partie pour ces travaux.

La question posée par Luria & Delbruck est de savoir comment les bactéries deviennent résistantes (aux antibiotiques par exemple). Deux hypothèses sont possibles a priori :
  • les bactéries exposées aux antibiotiques ont une toute petite probabilité de survivre. Les survivantes acquièrent une immunité et la transmettent à leur descendance. La resistance peut donc être vue comme une réponse à la pression de sélection.
  • les bactéries exposées aux antibiotiques sont toutes tuées, exceptées celles qui ont les bonnes mutations génétiques qui leur permettent de passer outre et survivre. Elles transmettent également leurs mutations génétiques à leur descendance. La resistance est donc "révélée" par la pression de sélection mais lui préexiste.

Luria et Delbruck ont compris (et montré dans le papier) que ces différents mécanismes d'apparition de la resistance se traduisent par des distributions de probabilité de resistance très différentes dans la population. Ainsi, dans le premier cas, si toutes les bactéries ont une probabilité égale de survivre, lorsqu'une colonie de bactérie est exposée à un antibiotique, une proportion constante de bactéries va survivre. On s'attend alors à ce que la distribution des bactéries resistantes suivent une loi de Poisson (i.e. en particulier la variance est identique à la moyenne). Dans le second cas au contraire, la proportion de mutants resistants dans la population est beaucoup plus variable. En effet, une fois qu'une bactérie a muté, elle transmet sa mutation à toutes ses descendantes. Si on suppose que toutes les bactéries croissent au même taux, cela signifie que la proportion de bactéries mutantes augmente avec le temps (si on a un taux fixe de mutation, toutes les bactéries mutent si on attend suffisamment longtemps). Du coup, la proportion de mutants dépend très fortement de l'histoire de la colonie : en fait, la proportion de mutants est directement proportionnelle au temps écoulé depuis l'apparition du premier mutant dans la colonie. Luria et Delbruck proposent alors une estimation de la variabilité observée dans ces colonies, et montrent en particulier que la variance du nombre de mutants est beaucoup plus grande que sa moyenne. Cette variance est alors mesurable expérimentalement en comparant plein de colonies, et, cerise sur le gâteau, permet même d'estimer le taux de mutation !



Références :

La page wikipédia
Luria, SE, Delbruck, M. (1943) "Mutations of Bacteria from Virus Sensitivity to Virus Resistance" Genetics 28:491-511. en pdf (les calculs ne sont pas hyper compliqués, cf plus bas pour un résumé)




[Parenthèse mathématique pour ceux qui veulent savoir d'où vient le résultat :
considérons une population de bactéries croissant avec un taux 1, si bien que la population en t est N(t)=N_0 exp(t). Supposons que les bactéries puissent devenir resistantes avec un taux de mutation a.
Le nombre de bactéries ayant muté entre t et t + dt est alors aN(t)dt. Si on appelle r le nombre de bactéries mutantes au temps t, on a donc dr=aN(t)dt+rdt, soit dr/dt= aN(t)+r. Le deuxième terme vient du fait que les bactéries mutantes déjà présentes croissent elles aussi avec un taux 1. Au final, le nombre de bactéries mutantes est donc, en intégrant, r(t)=taN(t), et la proportion de bactéries mutantes est donc ta, donc proportionnelle au temps. Luria et Dellbruck soulignent qu'au début, il n'y aura pas de mutants, si bien qu'ils corrigent cette formule en r(t)=(t-t_0)aN(t), où t_0 est le temps où apparaît le premier mutant.

Ensuite, le même genre de calculs est faisable sur la variance : c'est un peu plus compliqué car comme la population croît exponentiellement, la variance va aussi croître violemment avec le temps, d'où une distribution beaucoup plus large. Plus précisément, on considère d'abord le nombre de mutations entre t-tau et t-tau+dtau :
dm =aN(t-tau)dtau=aN(t)exp(-tau)dtau.
On se ramène au temps t car pour connaître la variance après t, il faut évaluer les contributions indépendantes à cette variance de toutes les mutations apparues avant t. Les mutations se font avec une statistique de Poisson, donc la variance du nombre de mutations est égale à la moyenne ci-dessus. Mais ce n'est pas le cas pour le nombre de mutants à cause de la croissance de la population. En effet, les mutants croissent toujours avec un taux 1, et donc il y a exp(tau) fois plus de mutants issus de cette mutation à t qu'à (t-tau), donc la variance au temps t sur le nombre de mutants apparus à t-tau est exp(2tau) celle sur le nombre de mutations, soit
var_dr=aN(t)exp(tau)dtau.
ce qui donne une variance totale au temps t (en intégrant sur tau)

var_r=aN(t)(exp(t)-1).

Donc var_r/r est proportionnel à exp(t)/t et est donc très grand devant 1; on est très loin de Poisson aux temps longs...
]

12 janvier 2007

Jouer à Dieu


Je profite de mes actuelles insomnies new yorkaises pour lire et bloguer. Au détour d'un livre très intéressant de Gerhart et Kirschner, Cells, Embryos ans Evolution, j'ai découvert que Richard Dawkins ne se contentait pas d'écrire pour le grand public, mais menait aussi de vrais travaux de recherche. Ainsi a-t-il mis au point il y a un peu plus de 20 ans (une éternité dans le domaine de la biologie !) un programme sympathique permettant de générer des "biomorphs". L'idée est d'encoder un genome artificiel contrôlant le développement d'une créature virtuelle. Un jeu de mutations/sélection (où vous faites vous-mêmes la sélection) permet de créer des formes très variées, rappelant certaines formes naturelles. Je vous présente ci-dessus ma création d'insectes/sauterelles !
Au delà de l'intérêt esthétique, cet algorithme montre comment un génome a priori simple permet de générer (de façon émergente ou auto-organisée diraient certains) des formes complexes, et comment la sélection naturelle permet de changer rapidement ces formes - certaines transitions sont en effet assez spectaculaires.
A vous de jouer ici !

10 janvier 2007

Commentaires sur la recherche

Juste un très court billet pour vous signaler deux commentaires de blop sur la recherche à la suite de deux billets : ici et . Blop semble être plus avancé dans sa vie que moi, et a décidé de ne pas rentrer en France. Je comprends son point de vue : il est vrai que les postes CR2 restent des postes juniors (en terme de salaire et de carrière), et autour de 30 ans, on aspire en général à faire quelque chose dans sa vie hors recherche. Je n'ai pas encore franchi ce cap fatidique, mais je commence à ressentir cette démengeaison...

09 janvier 2007

Le "No Free Lunch Theorem"

Il existe beaucoup de théorèmes d'impossibilités dans les sciences dures. L'exemple le plus connu est le fameux "théorème d'incomplétude de Gödel", affirmant en gros que certains énoncés ne peuvent être démontrés ou réfutés (voir aussi sur ce blog ce billet). Un des théorèmes assez récents dans le domaine de l'optimisation numérique ferait le malheur de Mike Slackenerny : il s'agit du "No Free Lunch Theorem". Ce théorème concerne les algorithmes d'optimisation numérique.
On passe notre vie à essayer optimiser quelque chose, à arbitrer entre plusieurs contraintes pour choisir ce qui nous semble le plus adapté. Par exemple, toute la microéconomie est basée sur l'idée d'optimisation sous contrainte, et le but du marché libre est de trouver un optimum collectif. Dans un registre plus légers, certains essaient de minimiser le nombre de mouvements à faire pour aller aux toilettes...
Mathématiquement, on définit alors une fonction de coût associée à un problème donné. La fonction de coût peut être très simple à définir : imaginons par exemple que vous soyez un représentant devant visiter plusieurs villes, et souhaitant minimiser votre fatigue, votre fonction de coût sera alors la distance totale parcourue. Il serait très utile, étant donnée une liste de villes, de connaître alors un moyen simple de minimiser cette distance totale. C'est un problème très classique en optimisation numérique : le problème du voyageur de commerce.
La plupart des scientifiques sont de gros paresseux, et aimeraient bien disposer de recettes toutes faites pour aborder ce genre de problème d'optimisation. Il serait formidable d'avoir une méthode générale, applicable à tous les problèmes sans exception, permettant d'optimiser à coup sûr une fonction de coût, quelle que soit sa forme, quel que soit le problème. Tout serait tellement plus simple... Et bien c'est peine perdue : le "No Free Lunch Theorem" affirme qu'une telle méthode n'existe pas. Le monde est trop complexe, et il n'existe pas de recette générale permettant d'optimiser n'importe quel problème. On peut formuler ce théorème de deux autres façons différentes :
  • sur le gigantesque ensemble de tous les problèmes d'optimisation numérique, aucun algorithme n'est meilleur que les autres, i.e. le coût moyen (sur l'ensemble des problèmes) trouvé par un algorithme ne dépend pas de l'algorithme (et n'est donc pas le coût minimum a priori)
  • Le seul moyen de trouver un algorithme plus efficace qu'un autre est d'adapter l'algorithme au problème, i.e. de connaître certaines structures mathématiques sous-jacente du problème d'optimisation permettant d'améliorer la performance de celui-ci.
La conclusion de tout ça, c'est que les numériciens et les spécialistes d'optimisation numérique ne seront jamais au chômage : chaque problème nécessite une étude approfondie et un algorithme spécifique pour être résolu. Ce genre de résultats affirme donc également que certains algorithmes très utilisés (par exemple les algorithmes génétiques, ou le recuit simulé) ne peuvent pas marcher de façon générale : ils ne seront efficaces que sur des problèmes avec des structures mathématiques bien précises. Je trouve également cette idée intéressante du point de vue de l'évolution : "l'algorithme" d'évolution darwinienne n'est efficace que s'il est adapté au problème ("sélection du plus adapté"). Si on connaît l'algorithme, cela signifie qu'on peut avoir des informations théoriques sur la structure du problème, et sur la fameuse "fitness function" chère aux biologistes...

Références :

Le papier original (merci Timothée) : Wolpert, D.H., Macready, W.G. (1997), No Free Lunch Theorems for Optimization, IEEE Transactions on Evolutionary Computation 1, 67.
Une démonstration assez simple du NFLT est proposée dans Ho, Y.C., Pepyne, D.L. (2002), Simple Explanation of the No-Free-Lunch Theorem and Its Implications, Journal of Optimization Theory and Applications 115, 549.

06 janvier 2007

Janvier, mois chargé

Peu de posts ces temps-ci. Comme beaucoup, je suis un peu débordé. Il faut dire que nombreux sont les chercheurs qui, rentrant tout juste des fêtes, voient approcher des deadlines cruciales. Les Américains sont en ce moment en pleine demande de grants (mon chef m'a demandé en toute urgence de lui faire quelques figures sur notre dernier projet qui tue, tandis qu'un collègue post-doc m'a demandé quelques informations sur un de mes papiers pour un de ses projets).
Le chercheur français expatrié souhaitant toujours rentrer, se consacre lui à la constitution des dossiers CNRS. Deadline : 15 janvier 2007. Rien de plus facile que de candidater au CNRS de prime abord : il suffit de fournir une copie de votre diplôme de thèse, le rapport de votre jury, un exposé de vos travaux. Vient ensuite le gros morceau : le projet de recherche. Pour déposer un projet de recherche, il faut d'abord trouver un labo d'accueil qui accepte de vous "soutenir". L'étape est déjà difficile, car en général vous n'êtes pas seul sur le marché, et puis tous les labos n'one évidemment pas le même poids. Ensuite, vous devez donc rédiger un programme de recherche qui s'intégrera bien dans le labo. J'ai personnellement toujours trouvé un peu absurde d'essayer de deviner la recherche qu'on va faire... il s'agit plutôt de décrire ce que vous comptez étudier, pourquoi vous pensez que c'est faisable, quels outils vous allez employer et quelles perspectives potentielles vos travaux ouvrent. Le CNRS dispose depuis peu d'un site web très bien fait pour "uploader" vos documents, ce qui facilite bien les choses pour nous autres post-doc...

Si votre dossier est complet, vous serez auditionné. Il n'y a aucune sélection à ce stade : tous les candidats sont auditionnés, au nom de l'égalité devant le concours. Cela donne lieu à des situations un peu difficiles, pour les examinateurs comme pour les candidats : il n'est pas rare que 90 candidats soient auditionnés pour un ou deux postes. Du coup, vous n'avez en général que 15 à 20 minutes pour présenter à la commission vos travaux passés et vos projets. L'exercice est d'autant plus perilleux : on dit en général que, s'il est impossible de convaincre en 15 minutes votre auditoire que vous êtes LE jeune et brillant chercheur nécessaire au CNRS, l'audition peut en revanche vous être fatale... Il faut laisser bonne impression, sachant que vous avez peu de chances d'être pris et qu'il s'agit plutôt de poser des jalons pour les années suivantes. D'ailleurs, certaines sections ont (paraît-il) décidé de ne pas jouer le jeu, et de se baser uniquement sur les dossiers scientifiques : l'audition se résume alors à une signature du candidat sur un document. Petite précision à ce stade : les frais de déplacements pour venir passer l'audition sont de votre poche; et la préparation de ces quinze petites minutes est très chronophage. Certains préfèrent donc faire l'impasse sur les auditions et attendre une période plus propice ou un CV plus fourni : choix raisonnable, mais le risque est que les gens en France vous oublient...
Tout cela pour vous dire que c'est bien malgré moi que je suis silencieux ces temps-ci; je me consacre à ces projets très importants pour mon avenir professionnel...

02 janvier 2007

Lecture : l'équation de Kolmogoroff

L'une des missions de l'académie des sciences fleure bon le temps jadis, où la science n'était encore qu'un passe-temps de nobles oisifs dissertant sur la nature du hasard ou sur des considérations arithmétiques : il s'agit du recueil et de la conservation de plis cachetés. Concrètement, imaginons que vous fassiez une découverte scientifique et que vous ne souhaitiez pas la publier tout de suite, vous pouvez alors rédiger un court article et l'envoyer sous un pli cacheté à l'académie des sciences, qui le conservera jusqu'à ce que vous ou l'un de vos héritiers accepte de l'ouvrir (ou après un siècle d'attente). L'intérêt essentiel est de prouver l'antériorité de vos résultats non publiés. Vous pouvez par exemple mettre au défi un collègue de résoudre un problème avant vous, et comparer par la suite les dates du pli cacheté avec solution du problème (à l'image des frères Bernoulli). Les périodes de guerre sont également propices au dépot de plis cachetés : si votre pays est envahi par une puissance étrangère, vous pouvez ainsi mettre à l'abri vos résultats novateurs et vos brevets (à l'image de la pile atomique de Frédéric Joliot-Curie). C'était peut-être aussi l'intention du soldat Wolfgang Doeblin (ayant émigré avec sa famille hors d'Allemagne en 33 et naturalisé français en 36 sous le nom de Vincent Doblin) lorsqu'il envoie son pli intitulé "sur l'équation de Kolmogoroff" à l'académie des sciences. Engagé dans la "drôle de guerre", il passe la majeure partie de son temps libre à continuer ses travaux mathématiques et essaie régulièrement de les mettre à l'abri. Lorsque l'ordre est donné de se rendre et que sa capture est certaine, ce descendant de juif allemand, n'ayant que trop conscience du funeste destin qui l'attend, préfère se donner la mort dans une grange de l'Est de la France...

Marc Petit nous relate le destin tragique de Doeblin (fils de l'écrivain Alfred Doeblin), tout en restituant un tableau saisissant du petit monde scientifique de l'entre deux guerres. Le petit monde clos des maths, hyper élitiste et hyper masculin, ne semble pas avoir beaucoup changé ! Les anciens "taupins" rencontreront des noms familiers comme Borel, Paul Lévy, Hadamard ou encore Stephan Banach. L'exode des scientifiques juifs (en France tout d'abord, puis aux Etats-Unis) est aussi décrite de façon dramatique...

Le fameux pli sera décacheté en 2000, après autorisation donnée par l'un des frères Doeblin. Le monde des maths découvre alors que Wolfgang avait découvert avant tout le monde une équation fondamentale dans le domaine des équations différentielles stochastiques, l'équation d'Itô, bien connue des
amateurs de maths financières et des physiciens statisticiens...

J'ai beaucoup aimé ce récit de Petit. D'un point de vue général, le côté "histoire des sciences" m'a beaucoup plu : il est par exemple amusant de voir que le domaine des probabilités n'avait pas très bonne réputation dans les années 30; certaines anecdotes sur les scientifiques sont aussi très instructives; leur destin d'homme est en revanche beaucoup moins drôle. J'ai vraiment été très touché par le destin de la famille Doeblin, prise dans le tourbillon de l'Histoire, émigrant plusieurs fois, déracinée, endeuillée.

Références :

L'équation de Kolmogoroff : Vie et mort de Wolfgang Doeblin, un génie dans la tourmente nazie (Poche) de Marc Petit
Un résumé de la vie de Doeblin


PS : je me suis demandé pendant quelques dizaines de pages à quoi correspondait cette fameuse équation ce Kolmogoroff. Il s'agit en fait de l'équation de Chapman-Kolmogorov !