Carnet du petit Tom : Physique, biologie et évolution...

30 mars 2007

Peut-on quantifier la pertinence d'un sondage ?

Je continue mes interrogations sur les sondages. Après un regard venant de l'étranger, je reviens sur ce fameux "lissage" des courbes, et vous propose un petit exercice quantitatif. Toutes mes excuses à ceux qui en ont marre des sondages, je vous rassure : c'est probablement mon dernier billet sur le sujet ! (mais bon, comme j'ai fait joujou avec quelques simulations, autant les raconter ici).


On peut donc voir à l'oeil nu que les courbes des sondages réels semblent plus lisses que les courbes simulant un sondage fait sur un échantillon aléatoire. L'une des questions que je me suis posée ces derniers temps est de savoir si l'on peut déterminer la "plausibilité" d'une série de sondages. Si les sondages sont un peu truqués, un peu cuisinés, un peu arrangés, ils devraient normalement avoir des propriétés statistiques un peu biaisées. Comme l'a fait très bien remarquer FrédéricLN sur son blog, si tous les sondages se plantent de la même façon et dans la même direction, ce n'est pas qu'il y a erreur, mais un vrai biais. Ce qui a été anormal en 2002 n'est pas que quelques sondages se soient trompés, mais bien qu'aucun sondage n'ait jamais classé Le Pen devant Jospin (ce qui aurait dû arriver statistiquement ... dans au moins un sondage sur deux, compte-tenu de la faible différence entre leurs scores).

L'une des caractéristiques des sondages est, on l'a dit, que la marge d'erreur effective semble beaucoup plus faible que la marge d'erreur statistique normale (les fameux 3 pour cents). Qualitativement, cela se traduit par le fait que les courbes des sondages n'explorent pas assez le domaine autour de leurs valeurs moyennes. Théoriquement, on devrait pouvoir regarder la distribution de résultat autour des valeurs moyennes, et montrer qu'on a une déviation de la distribution gaussienne. Le seul problème est que pour faire cela, il faudrait avoir beaucoup, beaucoup de données pour faire de tels sondages... sur les sondages ;) . J'ai fait le test : même avec une vingtaine de sondages, on est encore assez loin de pouvoir récupérer toute la distribution. En revanche, peut-être est-ce déjà suffisant pour avoir des informations sur des paramètres de la distribution...

Il y a un mois maintenant, IPSOS a mis en place une idée originale : un jour, un sondage. Depuis un mois, tous les jours, je note scrupuleusement le résultat du jour. La méthodologie est la suivante : tous les jours, 300 à 400 personnes sont interrogées, et leurs réponses sont mises en commun avec celles des sondés des deux jours précédents pour faire un échantillon représentatif d'un peu plus de mille personnes. Aujourd'hui, nous avons donc un ensemble de résultats très intéressants à étudier : plus de 23 sondages consécutifs, réalisés dans une période assez courte, avec strictement les mêmes méthodes. Un banc d'essai idéal pour essayer de débusquer les "ajustements" des sondeurs !

A défaut de pouvoir tracer une jolie gaussienne, j'ai essayé de trouver un moyen de comparer l'évolution sur ce mois à une évolution qui serait "typique" d'un sondage. J'ai donc simulé un million de séries de 23 sondages suivant la même méthodologie (3 x 333 personnes donnant une réponse, le résultat au temps t est moyenné avec le résultat au temps t-2 et t-1, et arrondi au demi-point, je garde les résultats à partir de t=2, donc fais en fait 25 sondages), et ai essayé de caractériser certaines propriétés statistiques sur ces sondages, afin de voir si la courbe réelle partageait les caractéristiques "typiques" de sondages simulées. Pour caractériser le lissage des courbes, je me suis plus particulièrement intéressé à la distribution des scores minimaux et maximaux sur la série de sondages. Mon hypothèse est que le score "réel" de Sarkozy est à 53 % (qui est le pic de la distribution, la moyenne étant à 53.15 - ce qui est cohérent). Sauf erreur de ma part (qu'on ne peut jamais exclure, j'en profite pour dire que ceci n'est pas un article scientifique, je n'ai pas les temps de tout vérifier 50 000 fois comme je le ferais pour un vrai article et croyez-moi, j'y ai déjà passé du temps ;) !), la courbe bleue montre la distribution de scores minimas sur une série de 23 sondages, la courbe verte montre la distribution de scores maximas sur la même série, la courbe rouge est la distribution de résultats du sondage IPSOS. Ce que nous dit la courbe bleue, c'est que statistiquement, sur une série de 23 sondages centrés autour de 53%, 20% ont un score minimum de 50.5, 20% ont un score minimum autour de 50%. C'est bien normal sachant que la marge d'erreur est d'environ 3%. De la même façon, la courbe verte nous dit que dans 20% des séries de 23 sondages, le score du candidat monte à 55.5 ou 56 % (1).
Examinons maintenant la courbe rouge. En réalité, le score minimum de Sarkozy sur la série de 23 sondages est 52%, le score maximum, 54.5 %. On voit très bien sur cette courbe que ces deux scores sont dans les queues de gaussiennes respectives des distributions des scores maxima et minima. Plus précisément, dans mes simulations, seulement 4% des sondages ont un score minimum supérieur ou égal à 52 %, et seulement 15 % des sondages ont un score maximum inférieur ou égal à 54.5%. Cela voudrait dire que le sondage réel est dans une zone statistiquement insignifiante : seulement 0.6% des sondages réels ont des distributions similaires. Si vous préférez, si on refaisait cette série de 23 sondages plusieurs fois, théoriquement, plus de 99% des sondages devraient monter plus haut ou descendre plus bas que ce qui est effectivement observé. Admettons maintenant que je baisse ma tolérance d'un demi-point : dans mes simulations, environ 12% des sondages ont un score minimum supérieur ou égal à 51.5%, 32% des sondages ont un score maximum inférieur ou égal à 55%, cela donne à peu près 4% des sondages avec des écarts maximum-minimum similaires. Cela ne devient pas complètement improbable, mais reste assez faible...

Vous l'aurez noté dans ce petit exercice, ce qui rend la distribution improbable n'est pas tant la distribution individuelle du minimum et du maximum (qui sont ici en fait assez indépendants), mais le fait que les deux scores minima et maxima soient simultanément respectivement grand et petit. Je me suis donc amusé à représenter dans le graphique ci-contre le nombre de séries de sondages aléatoires donnant à la fois un pourcentage maximum et un pourcentage minimum donné. Sans surprise, on obtient une bosse à peu près gaussienne. La cote d'un point est proportionnelle à la probabilité d'observer un sondage avec un couple maximum, minimum donné. La flèche magenta indique la série actuelle IPSOS. Ce qui est intéressant est qu'on a immédiatement un point de comparaison avec tous les autres sondages : une région à cote zéro est très improbable , tandis que les sondages en haut de la bosse, s'ils sont individuellement relativement improbables (seulement 5% des sondages sont pile au sommet de la bosse avec mon choix d'arrondi) sont collectivement assez probables (par exemple 30% des sondages sont au-dessus de la ligne bleue ciel). On voit très bien que les sondages réels sont ... tout en bas de la bosse, dans une zone assez improbable.

En fait, on retrouve tout simplement l'effet décrit précédemment : l'exploration autour de la valeur moyenne est ridicule - avec un score "réel" d'environ 53%, le sondage descend au minimum à 52% et monte au maximum à 54.5%. Dans une série 23 sondages, 90% de mes simulations explorent l'intervalle 51%-55%, et une bonne fraction des sondages devraient même descendre à 50% et monter à 56%. On a donc en réalité dans le sondage IPSOS une marge d'erreur "effective" de 1 à 2% ici (à comparer avec les 3-4% annoncés sur le site); cela correspondrait à une population effective sondée d'au moins 2500 personnes. On parle beaucoup d'ajustements des scores au premier tour, mais à mon avis on voit très bien sur cet exemple que ces scores de deuxième tour semblent eux aussi très arrangés, malgré l'absence de vote Le Pen. Peut-être les sondeurs ont-ils des super méthodes statistiques qu'ils nous cachent (pourquoi alors annoncer une marge d'erreur de 3% ?): cette série de sondages est complètement conforme à un score de 53% de Sarkozy; ce qui est juste très étrange est cette marge d'erreur complètement rabotée. Peut-être les échantillons ne sont-ils pas assez variés (après tout, peut-être les sondeurs ne sondent-ils réellement que 2500 personnes, toujours les mêmes - cela pourrait expliquer bien des choses...). Peut-être les sondeurs ont-ils aussi un flair extraordinaire qui leur permet de jauger en permanence l'opinion publique réelle. Peu importe; dans tous les cas, pour répondre à la question du titre, pour moi, il est clair qu'on peut estimer la plausibilité de ce genre de séries de sondages et s'apercevoir qu'il manque quelque chose pour expliquer le résultat.

(1) Notez d'ailleurs que les deux distributions ne sont pas complètement symétriques par rapport à 53; j'ai fait pas mal de tests et pense que c'est un effet de la discrétisation.

29 mars 2007

Traiter le cancer... avec des bactéries !

A la fin du XIXième siècle, un médecin new yorkais, William Coley, a étudié l'évolution des taux de succès de traitements des cancers. A sa grande surprise, il s'est aperçu que les récidives de cancer chez ses propres patients étaient bien supérieures à celle des patients du XVIIIième siècle. La raison est assez surprenante : les conditions d'opération au XVIIIième siècle n'étant pas hyper hygiéniques, les patients développaient souvent des infections bactériennes. Cancer + infections bactériennes : le cocktail semble explosif a priori, et les chances des patients très basses. Et bien pas du tout : les infections bactériennes semblent être redoutablement efficaces pour éradiquer les cellules cancereuses. Deux mécanismes seraient à l'oeuvre :
  • un effet indirect tout d'abord : l'infection bactérienne provoque une réponse de l'organisme, qui stimule le système immunitaire. Celui-ci arrive alors à se débarraser des cellules cancereuses. Ceci a ammené Coley à traiter des cancers avec des injections de bactéries neutralisées (Toxines de Coley). Il semble néanmoins que ce traitement ait été depuis abandonné (oublié ?), et qu'il n'y ait plus aucune étude sur le sujet...
  • un effet direct : les bactéries vont avoir tendance à se reproduire préférentiellement dans les endroits hypoxiques ce qui est exactement le cas de certaines tumeurs. Du coup, les bactéries se reproduisent et entrent en compétition localement avec les cellules cancéreuses, allant jusqu'à les affamer !
Le problème est évidemment qu'il y a quand même toujours un risque dû à l'infection bactérienne. Avec l'essor de la biologie moléculaire moderne est venue une nouvelle idée : pourquoi ne pas utiliser des bactéries, dont la toxine aurait été neutralisée, pour détecter et rentrer en compétition avec les cellules cancereuses ? C'est l'expérience à laquelle se sont livrés Dang et al.

Sur la photo ci-contre, on voit le traitement d'une tumeur chez des souris. On leur a injecté une bactérie neutralisée (mais vivante - une bactérie OGM en quelque sorte) en accompagnement d'une drogue anti-cancer. En une journée, les bactéries arrivent à ébranler sérieusement la tumeur, déclenchant des hémorragies (la tâche brune)... Le système immunitaire et les drogues font le reste : en 30 jours, la tumeur a disparu !

Les perspectives thérapeutiques semblent assez extraordinaires. Car certains groupes sont déjà en train de réfléchir au moyen d'utiliser les bactéries pour non seulement détecter les tumeurs, mais libérer des médicaments pile au coeur de celles-ci. En particulier, il est envisageable d'utiliser les méthodes de plus en plus rodées de biologie synthétique pour fabriquer de véritables portes logiques détectant un environnement cancereux...

Pour conclure, je me souviens qu'un des grands thèmes à la mode il y a quelques années lié aux nanotechnologies était la conception et la fabrication de nanorobots, qui pourraient nous soigner et délivrer des substances thérapeutiques de façons très précise et très contrôlée. Il apparaît que ces nano-robots existent en quelque sorte déjà sous la forme de bactéries depuis 3.5 milliards d'années : tout ce que nous avons à faire est de trouver un moyen de les reprogrammer...



Références :


Forbes NS, Nature Biotechnology - 24, 1484 - 1485 (2006)
Dang et al, PNAS, 98, 26,15155-15160 (2001)

24 mars 2007

Leçons canadiennes sur les sondages gaulois

Plusieurs médias ont récemment tenté de discuter et de décrypter les méthodes derrière les sondages (notamment Arrêt sur Images, le 7/9.30 de France Inter...). Un aspect assez fascinant dans ces émissions est qu'en général, les animateurs invitent d'un côté des membres des instituts, des spécialistes de politiques et des médias, ceux ci étant "opposés" à des journalistes. Ainsi les sondeurs délivrent-ils leur bonne parole sans contradiction sur le fond de leur travail. Par exemple, les journalistes cherchent à comprendre les méthodes de redressement : mais, au-delà du fait qu'ils n'obtiennent pas de réponses précises, ne faudrait-il pas en contester le principe ? Malheureusement, il semble impossible de remettre scientifiquement en question la parole des instituts de sondages ou de critiquer leurs méthodes : n'y a-t-il donc aucun sociologue ou statisticien en France capable de nous parler des sondages et de leur validité scientifique ?

Heureusement, dans d'autres pays, les spécialistes indépendants des sondages ont pignon sur rue, et peuvent informer le grand public sur la qualité ou la pertinence des sondages. Claire Durand est l'une de ceux-là. Et dans un article intitulé 'The polls in the 2002 French election : an autopsy", elle se penche sur les sondages français (qu'elle autopsie, donc), et sur leurs méthodes. Et on en apprend effectivement de belles.

Je me permets de reproduire (et de traduire) certains extraits de son article. Si vous avez suivi les différentes émissions parlant des sondages, les sondeurs se sont souvent abrités derrière le secret professionnel pour éviter de donner leurs méthodes dans le détail. Première surprise pour le citoyen français que je suis, au détour de cette phrase :

Although the law requires that all the methodological information be made available to citizens, the researcher in charge of obtaining the information encountered many difficulties.


Bien que la loi exige que toutes les informations sur la méthodologie soient disponibles pour le citoyen, la chercheuse chargée de recueillir ces informations a rencontré de nombreuses difficultés.



Ainsi donc, j'apprends qu'en France existe une loi qui oblige les instituts de sondage à donner leurs méthodes. Où donc est la limite du secret professionnel ? Voilà un aspect que j'aurais aimé voir aborder dans les différentes émissions sur les sondages. Rassurons-nous, ce secret est bien protégé, vues les difficultés rencontrées par la chercheuse, dont voici un aperçu :



She was required to ask for an appointment and to specify in advance the files she wanted to consult. The personnel would not let her photocopy any document, so she had to write down the relevant information. Finally, she was informed that part of the information—the results obtained before adjustment—though required by law, would not be available unless the pollsters give their permission. We asked the pollsters for that permission, and we received a positive answer from one.


La chercheuse a dû demander un rendez-vous et préciser par avance les documents qu'elle souhaitait consulter. Le personnel ne l'a pas laissé faire de photocopies, si bien qu'elle a dû écrire à la main toutes les informations. Enfin, on l'a informé qu'une partie de l'information - les résultats obtenus avant ajustements- bien que devant être disponibles d'après la loi, ne pouvaient l'être sans la permission des instituts de sondage. Nous avons demandé aux instituts cette permission, et (seul?) l'un d'entre eux nous a donné son accord.


Je regrette de ne pas être en France pour aller chercher quelques données brutes à mon tour ! Résumons donc ce paragraphe édifiant : les instituts de sondage sont tenus par la loi de rendre publics à la fois leurs méthodes et les chiffres bruts avant redressement. La commission des sondages a manifestement tout fait pour mettre des bâtons dans les roues à cette chercheuse, exigeant un accord des instituts avant de livrer les seules informations valables : les chiffres bruts des sondages.


Toutefois, elle a pu finalement avoir quelques informations sur les fameuses méthodes de redressement. Voici un extrait de l'article à ce propos :


One pollster, who requested anonymity, explained in this way the process by which he decides on published estimates: "The statistician provides me with estimates according to different adjustments (...). I look at the different columns and at the published estimates for the last week in order to figure out the most likely figure. Say a candidate had 2 percent the previous week and has 4 percent in most adjustments that week, I will put him at 3 percent. If he still has 4 percent in the next poll, then I will put him at 4 percent."

Un sondeur, qui a demandé de conserver l'anonymat, explique ainsi la méthode employée pour traiter les données : "Le statisticien me livre des estimations après divers ajustements. Je regarde alors les différentes colonnes et les estimations publiées la semaine précédente afin de déterminer le chiffre le plus probable. Supposons qu'un candidat soit à 2 pour cent la semaine précédente, et 4 pour cents après estimations de cette semaine, je le mets alors à 3 pour cent. S'il a encore 4 pour cent au sondage suivant, je le mets alors à 4 pour cent.

Voilà en quelques phrases l'explication de nos fameuses courbes lissées et confirme mon hypothèse exprimée dans un billet précédent. Ces petites corrections n'ont l'air de rien à première vue, mais d'un point de vue scientifique, c'est clairement une hérésie. C'est en effet considérer toute variation a priori comme une fluctuation statistique. Or, on ne peut se débarrasser des fluctuations statistiques : comment alors les distinguer des évolutions ? Il faut donc potentiellement dans ce cas de figure au moins deux sondages pour avoir le bon résultat. Imaginons qu'une fluctuation statistique aille dans le mauvais sens après une évolution effective : il faudrait alors 3-4 sondages pour voir l'évolution réelle. Soit de 2 à 4 semaines de campagne. C'est donc à mon sens extrêmement grave de modifier ainsi les données brutes alors que les évolutions des sondages sont pile poil dans la marge d'erreur, car cela fausse complètement l'analyse des évolutions. Par ailleurs, ce genre de méthodes est-il neutre politiquement, traite-t-on tous les candidats de la même façon ? N'y a-t-il pas par construction un effet "prime au gagnant" ... des semaines précédentes ?

Jules de diner's room critiquait Schneidermann qui préconisait d'interdire purement et simplement les sondages, arguant notamment du fait qu'on a droit à l'information. Or, il apparaît que :
  • les données brutes, qui sont la véritable information, ne sont manifestement pas facilement accessibles alors qu'elles devraient l'être
  • par ailleurs, les sondeurs s'arrogent le droit (sous le contrôle de la commission des sondages) de décider ce qui constitue une information d'une fluctuation statistique, alors qu'ils n'ont aucun moyen de le faire.
Avec cela, rien d'étonnant à ce que 62 sondages parmi les 63 derniers aient donné Sarkozy gagnant. Mais est-ce une information ?

Je vois déjà les arguments de certains : et le vote Le Pen ? Car bien sûr, nous sommes tellement bien pensants, tellement intoxiqués (moi y compris) que nous y croyons à cette histoire : les gens mentent forcément au téléphone, tous confits de honte à voter Le Pen. Roland Cayrol nous expliquait donc sur le plateau de "Arrêt sur Images" il y a deux semaines, que, pour les confondre, il suffisait de leur poser des questions annexes. Comme exemple (que D. Schneidermann a dû se battre pour obtenir) il citait: "est-ce que vous êtes parfois en accord avec les thèses de M. Le Pen ?". Ainsi, les sondeurs auraient une méthode infaillible pour confondre les électeurs honteux du FN, qui sont bien sûr des menteurs. Mais ceci prouve qu'il n'y a pas de remise en cause de leur méthode d'échantillonnage. Et s'ils n'arrivaient tout simplement pas à interroger suffisamment d'électeurs FN ? A quoi serviraient alors ces questions annexes ? Du coup, on utilise un artifice pour améliorer le rendement d'un machine bien rouillée. Vous croiriez, vous, à la compétence d'un informaticien qui vous explique qu'il a un bug, et que donc il est obligé d'ajouter un autre bug pour corriger le précédent ? Car si j'en crois cet article de Durand et al., le problème est essentiellement un problème de la méthode des quotas, qui semble bien connu ... depuis au moins 15 ans ! Ainsi, lors des élections de 1992 au Royaume-Uni, les sondages, basés sur la méthode des quotas, se sont plantés lamentablement :


Though the British Election Panel Study arrived at a good reconstitution of the 1992 vote using a random sample, the reconstitutions by pollsters using quota samples differed substantially from the actual vote.


Bien que le "British Election Panel Study" permettait une bonne reconstitution des résultats de 1992 en utilisant un échantillonage aléatoire, les reconstitutions des instituts par la méthode des quotas différaient substantiellement des résultats observés.

Notez que la désormais fameuse méthode des quotas est dépassée sur cet exemple précis par une simple interrogation aléatoire. Dans la suite, on apprend même qu'on sait depuis 1995 qu'ajuster les résultats en fonction des élections précédentes (ce que CSA dit faire aujourd'hui pour redresser - Roland Cayrol ayant même déploré que ces têtes de linottes d'électeur oublient ce qu'ils ont voté à l'élection précédente - in "Arrêt sur Images" sur les sondages) peut même dégrader l'estimation. La difficulté est d'autant plus grande qu'on ne sait pas forcément en France quelle élection utiliser pour cette reconstitution.


Laissons la conclusion à Durand et al., ou plutôt à Jowell et al. :


One would be tempted to issue the same recommendation as Jowell et al.: "Our recommendation to pollsters and their clients, the mass media, is that they should invest in a program of methodological work as soon as possible. Sampling methods need to be improved, and the rather primitive methods of forecasting employed by the polls need to be supplemented by more sophisticated techniques that draw on the massive body of data about voting behavior and political attitudes that is freely available."




Nous serions tentés de suggérer comme Jowell et al. : " Notre recommandation pour les instituts et leurs clients, les mass-media, serait de rapidement se lancer dans un programme de travail méthodologique. Les méthodes d'échantillonage doivent être améliorées, et les méthodes de prédiction plutôt primitives utilisées par les sondeurs doivent être accompagnées de techniques plus sophistiquées se basant sur les masses de données à propos des habitudes de votes et des attitudes politiques librement disponibles".


Référence :
Durand, Blais & Larochelle, Public Opinion Quarterly 2004 68(4):602-622

Add 28 Mars: Sebastiao Correia indique sur son blog un lien vers l'article en question en accès libre.

21 mars 2007

Vote électronique et fraude

On m'a signalé ce site, luttant contre le vote électronique :
http://recul-democratique.org/

Il y a des films de démonstration de fraudes; c'est assez effrayant. De la même façon, on peut assez facilement savoir pour qui vous votez en temps réel en captant les ondes radio émises par la machine.

Je ne peux que souscrire à ce genre d'arguments :

Dans une élection traditionnelle, pour limiter le risque de fraude, il suffit de surveiller les urnes le jour de l’élection (et quelques jours après s’il y a des litiges). Mais les ordinateurs de vote, c’est en permanence, à longueur d’année et vingt-quatre heures sur vingt-quatre, qu’il faut les surveiller, comme l’explique l’informaticien Pierre Muller [2] : « On a beau mettre sous clé l’ordinateur de vote dans les jours qui précèdent les élections, la machine peut être piratée à tout moment, par exemple six mois ou un an avant le scrutin. » Une telle surveillance étant quasi impossible, il suffit d’avoir la clé du local des ordinateurs et la complicité d’un informaticien, et hop, je t’embrouille. Ni traces, ni soupçon, ni contestation possible. De plus, poursuit Pierre Muller, « les composants informatiques sont standards et programmés à l’identique sur toutes les machines. Il suffit d’en modifier un, de le dupliquer, d’en préparer un lot à l’avance qu’il suffirait d’installer dans les ordinateurs de vote et toutes les conditions sont réunies pour une fraude massive ».


Deux trucs que je ne comprends pas bien :
- on est nécessairement obligé de reprogrammer la machine à chaque élection (vu qu'on ne vote pas pour les mêmes à chaque fois), qui s'occupe de cette programmation ? Comment être sûr qu'il n'y a pas de fraudes au moment de la reprogrammation ? L'avantage de l'urne transparente et des assesseurs des différents partis politiques, c'est que là au moins, il y a plusieurs témoins, ayant des intérêts divergents qui doivent s'équilibres,
- même sans intention de fraudes, on peut laisser des bugs dans des programmes. Après chaque programmation, j'espère que quelqu'un vérifie les programmes. Et vérifie au sens mathématique : il faut être absolument sûr que la machine donne réellement le résultat, quel que soit la séquence des votes. Je pense qu'il y a des méthodes standards (encore que ces méthodes sont nécessairement approchées, puisque la prédiction de l'issue d'un programme est il me semble indécidable, cf ce billet). Peut-être un informaticien peut-il m'éclairer, mais comment fait-on pour vérifier de tels programmes ? Le fait de savoir a priori si la machine donne le bon résultat quelle que soit la séquence des votes est-il mathématiquement décidable ?

Le "bêtisier" des partisans du vote électronique est lui aussi assez gratiné...

20 mars 2007

Des couples en science...

Une fois n'est pas coutume, nous allons parler ici ... d'amour.
Mais bien sûr d'amour et de sciences !

Un article récent de Nature décrivait très bien le "problème à deux corps" posé en science : d'après l'article en question, la moitié des scientifiques sont avec d'autres scientifiques (1). Cela pose d'énormes problèmes logistiques : compte-tenu de la difficulté d'avoir un poste à un endroit donné, comment donc avoir deux postes dans des domaines différents au même endroit ?

En fait, la plupart du temps, c'est quasiment impossible, tout du moins au début :

A physicist friend of mine, Diandra Leslie-Pelecky, says: "If you both want to be high-powered researchers, you are limited in your choice of jobs, because there may not be many places with strong programmes in both areas."
La première solution est donc de faire des concessions "scientifiques". Le problème, c'est qu'il est impossible de faire trop de concessions : chacun sait que le choix de l'endroit où vous travaillez a au moins autant d'importance que votre travail lui-même. L'article cite l'exemple d'une scientifique qui a suivi son mari en prenant une position non permanente à ses côtés : après quelques années, n'étant pas dans un endroit idéal, qui n'avait par ailleurs pas forcément la volonté de développer plus avant sa discipline, elle s'est retrouvé au chômage. La solution s'impose alors d'elle-même : le célibat géographique
So when Ball State University in Muncie, Indiana, offered her a full-time position, she accepted, even though it meant living in different states while her children were quite young. "In those days, if you told people you were going to have a commuter marriage, they assumed you were getting a divorce," she says. "So we were a little ahead of the curve." But the Howeses made it work for 25 years by following two rules: "Talk every day, no matter what, and have a home for both partners on both ends. Both places should be home," says Howes, who now chairs the physics department of Marquette University in Milwaukee, Wisconsin.
Après quelques années de vie séparée, on peut espérer que les CV seront assez fournis pour pouvoir arriver à trouver des postes au même endroit. L'autre problème est qu'évidemment, les endroits concentrant le plus de variétés scientifiques (pour des couples dans des disciplines différentes) sont également les endroits les plus courus ! Evidemment, de telles situations sont assez difficiles à vivre. Une étude est en cours pour déterminer si les scientifiques vivant ainsi divorcent plus souvent que la population générale.

Ce que je peux dire en tous cas (avertissement aux jeunes couples se lançant dans la science), c'est que je ne connais pas de couples de scientifiques n'étant pas passés par cette étape de séparation forcée. Le problème majeur, c'est que le marché de l'emploi scientifique est maintenant mondial; il n'est donc pas rare de devoir alors traverser la frontière et de prendre l'avion pour aller voir son/sa chérie (2). Je peux vous dire que j'accumule en ce moment même beaucoup de miles sur mes diverses cartes, et que les douaniers commencent à me connaître ;). Exemple typique:

Douanier : Bonjour, que venez-vous faire dans notre beau pays ?
Moi : je viens voir ma femme qui travaille ici
Douanier : ah oui, elle fait quoi ?
Moi : elle est chercheuse à l'université !
Douanier : et vous, vous faites quoi ?
Moi : je suis chercheur
Douanier : et vous travaillez où ?
Moi : à New York !
Douanier : mais dites-moi, votre femme, elle est française aussi ?
Moi : oui oui
Douanier : et bien dites-donc, vous en voyez du pays !
(Le Douanier cherche alors de la place sur mon passeport pour me tamponner un visa temporaire).

Et on n'est pas à l'abri d'une mauvaise surprise : j'ai maudit la tempête de neige qui s'est abattue sur New York vendredi soir et qui m'a fait passer un triste week-end en célibataire... Le plus effrayant à vrai dire est que cette situation peut rapidement devenir permanente. Mon chef est marié, sa femme est professeure dans une autre université à 5 h de voiture. Evidemment, dans ces conditions, peu de couples de scientifiques ont des enfants (de ce côté-ci de l'Atlantique en tous cas). En fait, ce qui arrive très souvent est que l'un des deux laisse tomber la recherche...

Heureusement, les universités commencent à se décarcasser un peu (aux US en tous cas). Lors d'une job interview, le sujet du conjoint est -parfois- abordé. Dans certaines universités, il y a même une cellule spécialisée pour trouver un boulot au conjoint du scientifique presitigeux qu'on souhaite attirer , particulièrement dans les universités "qui montent" et qui essaient d'attirer des jeunes prometteurs pour monter encore plus haut. Mais c'est loin d'être la règle - pas la peine d'attendre quoi que ce soit d'Harvard ou de NYU qui n'ont aucun mal à recruter-, et encore une fois, compte-tenu du petit nombre de postes créés chaque année quel que soit l'endroit, cela reste très difficile et très aléatoire.

Je suis sûr que de nombreux lecteurs de ce blog (scientifiques ou non) ont beaucoup à dire sur ce sujet. Je vous invite donc à laisser quelques commentaires pour partager vos expériences. Même si le but n'est pas de m'apitoyer sur mon sort, tout ce que je peux dire est que je trouve assez malsain cette espèce de "fuite en avant", qui ne concerne pas seulement les boulots scientifiques, et qui consiste à considérer tout un chacun comme de purs individus, sans racine, sans famille, devant chercher à tout prix l'optimum professionnel individuel (comme gage de sérieux et de motivation) dans l'espoir de simplement pouvoir exercer son boulot - car c'est de cela dont on parle la plupart du temps en science. Même pour les couples solides, qui l'ont choisi et anticipé, travailler loin de sa femme dans un domaine hyper compétitif où votre avenir à court terme (un à deux ans) est incertain, c'est très très dur; je connais des gens qui sont allés jusqu'à la dépression. Et évidemment, dans ces conditions, le boulot s'en ressent aussi, ce qui peut bien vite vous faire rentrer dans un cercle vicieux... Comme partout, un bon chercheur est un chercheur heureux !

(1) détail amusant : l'auteur de l'article a rencontré son mari... via un blog scientifique !!
(2) Pour être un scientifique écologique, soyez célibataire ...



Référence


Scientists in love: When two worlds collide,Jennifer Ouellette, Nature 445, 700-702 (15 February 2007)


18 mars 2007

Geekeries du dimanche IV

Et c'est partie pour une nouvelle fournée de petites choses diverses et variées...

C@fé des sciences

Vous l'avez peut-être noté, mais le c@fé des sciences s'est récemment agrandi, et a accueilli sa première c@fetière ! Ainsi prouvons-nous que ne sommes pas un club de scientifiques machos ;). Sevene nous parle de notre plus bel organe, le cerveau. Bienvenue sevene !!


Subtilité dangereuse du C++

Considérons le bout de code C++ suivant :




int main(){
int i = 5;
for ( int i ; ...)
}


(Note : j'ai voulu mettre un exemple plus explicite, genre "print i", mais je n'ai pas réussi à dire à blogger de ne pas interprêter le code !!!)
Le code s'en sort parfaitement : en sortie de boucle, i vaut 5, même si i est modifié dans la boucle ! Ainsi est-il possible de définir en C++ une variable locale dans une boucle portant le même nom qu'une variable globale, et le compilateur s'en sort très bien. Cela fait froid dans le dos, non ?


Du bourrinage en informatique


En ce moment, je travaille avec un vrai informaticien pour apprendre à optimiser mes codes. Extrait de conversation :

Informaticien : ce machin, ça fait quoi ?
Moi : oh, c'est une petite astuce mathématique pour calculer ci ou ça. Cela me permet d'économiser un peu de mémoire, et c'est plus clair pour moi.
Informaticien : économiser de la mémoire ? Mais c'est complètement con ! ça ne sert à rien d'économiser de la mémoire ici ! La mémoire, on en a beaucoup, tu peux gérer sans problèmes des tableaux avec des tailles typiques de plusieurs gigas...
Moi : ah... mais moi ça me paraissait plus élégant...
Informaticien : l'élégance, on s'en fout, ce qui compte, c'est l'efficacité !



Je me rends donc compte que
1- je suis un vrai bleu en programmation,
2- je raisonne trop comme un pur théoricien.


Sondages

Connnaissez-vous la fameuse nouvelle d'Asimov, qui raconte qu'un jour, un ordinateur (Multivac) serait à même de choisir UN seul électeur représentatif qui déciderait seul du choix du Président ? Voir ce billet pour un extrait. C'est la méthode des quotas, poussée à son paroxysme !


Multivac est d'ailleurs omnipotent : dans une autre nouvelle, son descendant inverse l'entropie et créé un nouveau big-bang...


Conservapedia, a conservative encyclopedia you can trust.

(Via Nicole, qui ne bloggue plus mais n'en est pas moins toujours vivante)
Les "conservateurs" ont leur encyclopédie sur le web : conservapedia ! Les articles sont à l'avenant, mais moins caricaturaux qu'on ne pourrait le croire. Cependant, on sent bien la "patte" des mouvements conservateurs américains, voir par exemple le premier paragraphe de la page "abortion" :


Abortion is the induced termination of a pregnancy.[1] The father of medicine, Hippocrates, expressly prohibited abortion in his ethical Oath long before Christianity. Today abortion is a billion-dollar industry[2][3] in the United States and Western Europe except for Ireland, Malta, Poland and Portugal, where it is generally illegal. Here is a discussion of the position of the United States National Cancer Institute on Abortion.

Plus loin, l'article affirme qu'il y a corrélation entre avortement et cancer du sein, affirmation totalement fausse qui fait partie de la propagande des mouvements anti-avortement aux Etats-Unis (voir aussi cet article récent de Time magazine). Site très surprenant donc : au milieu de choses tout à fait vraies et de réalités objectives, se terrent des mensonges éhontés... Probablement le meilleur moyen de faire passer un message.

Wikiality

Conservapedia est un peu trop molle à mon goût. Les vraies valeurs de l'Amérique vraie sont bien mieux défendues sur wikiality.com. Wikiality est un terme forgé par Stephen Colbert pour désigner la "réalité " forgée sur internet, et en particulier sur wikipedia. Ainsi a-t-on tendance à considérer ce qui est lu sur internet comme parole d'évangile; dans ce cadre la réalité objective n'existe plus, elle est remplacée par une "wikialité". Et pour qu'une chose devienne vraie, il suffit de modifier la page wikipedia correspondante : Stephen Colbert avait ainsi proposer de "régler" le problème de l'extinction des éléphants en modifiant la page wikipedia correspondante (Francis Pisani avait raconté la chose bien mieux que moi). Le site est à l'avenant, et dans le style de son émission. J'adore !





The Baby Satan has a special place in hell for
Charles Darwin
and YOU just for visiting this internets tube!


16 mars 2007

Les physiciens sont fous ...

En surfant sur uncommon descent, je suis tombé sur un abstract d'article hallucinant :


ABSTRACT: We argue that the cosmic microwave background (CMB) provides a stupendous opportunity for the Creator of our universe (assuming one exists) to have sent a message to its occupants, using known physics. Our work does not support the Intelligent Design movement in any way whatsoever but asks, and attempts to answer, the entirely scientific question of what the medium and message might be IF there was actually a message. The medium for the message is unique. We elaborate on this observation, noting that it requires only careful adjustment of the fundamental Lagrangian, but no direct intervention in the subsequent evolution of the universe.


Evidemment, l'article est une demi-blague. Il contient des passages cocasses (je recommande vivement la première colonne) :


That the universe was started by superior Beings is not only the province of religious thoughts from the earliest days of the human race, but has also been a staple of science fiction. In one of our favorite scenarios, our universe is a school-assigned science experiment carried out by a high school student in a meta-universe. Perhaps he or she or it even started an assortment of universes like ant farms and stashed them away somewhere in the basement, out of his or her or its parent’s way. Perhaps by now he has lost interest and forgotten about the universes, leaving some to expand, others to collapse, in complete futility and silence. But, perhaps not without leaving a message for the occupants...


Le pire, c'est que Dembski s'insurge du fait que les physiciens aient dû rajouter la phrase sur l'intelligent design, sous l'odieuse pression des méchants éditeurs !!

Sinon, pour ceux que ça intéresse, voici le message du créateur :


The next question is what might the message be. We thought of various possibilities and decided that the best choice would be the following. We now know, and we suppose that any civilization advanced enough to detect Cl in the comic microwave background would also know, that three of the four fundamental interactions are governed by gauge theories, based on the Lie algebras U(1) C SU(2) C SU(3) C SU(5) C SO(10) C E(6) (Nd Tom Roud : j'ai mis des "C" pour les inclusions). Thus we suggest that the coded message would simply be an announcement along the line “Hey guys, the universe is governed by gauge theories, and the relevant algebras are such and such.”


Référence :

http://arxiv.org/abs/physics/0510102

Title: Message in the Sky
Authors: S. Hsu and A. Zee

14 mars 2007

En finir avec le "Darwinisme"

According to Darwinism, undirected natural causes are solely responsible for the origin and development of life. In particular, Darwinism rules out the possibility of God or any guiding intelligence playing a role in life's origin and development. Within western culture Darwinism's ascent has been truly meteoric. And yet throughout its ascent there have always been dissenters who regarded as inadequate the Darwinian vision that undirected natural causes could produce the full diversity and complexity of life.William Dembski 98


Au-delà de cette profession de foi pro-Intelligent Design, j'attire votre attention sur le fait qu'en quelques lignes, le nom de Darwin est prononcé quatre fois, et toujours sous une forme dérivée. Anecdotique me direz-vous ? Pas si sûr... Les termes "darwinisme", "darwinien" sont certes parfois utilisés par les scientifiques mais vous remarquerez que les adversaires de la théorie de l'évolution les emploient systématiquement. Plusieurs raisons à cela, une première est de "dégrader" la théorie de l'évolution pour la connoter "philosophie" ou "spiritualité" :

The term Darwinism has been used by Darwin's critics to describe the beliefs of those who promote evolutionary biology. In this usage, the term has connotations of atheism. For example, in Charles Hodge's book What Is Darwinism?, Hodge answers the question posed in the book's title by concluding: "It is Atheism." Likewise, modern creationists use the term Darwinism, often pejoratively. Casting evolution as a doctrine or belief bolsters religiously motivated political arguments to mandate equal time for the teaching of creationism in public schools.(Extrait de la page wikipedia)

D'ailleurs, il n'y a pas nécessairement de "malice" ou de manipulation là-dessous car les créationnistes et autres Intelligent Designers (ID) voient vraiment la théorie de l'évolution d'abord et avant tout comme une philosophie matérialiste :

Debunking the traditional conceptions of both God and man, thinkers such as Charles Darwin, Karl Marx, and Sigmund Freud portrayed humans not as moral and spiritual beings, but as animals or machines who inhabited a universe ruled by purely impersonal forces and whose behavior and very thoughts were dictated by the unbending forces of biology, chemistry, and environment. This materialistic conception of reality eventually infected virtually every area of our culture, from politics and economics to literature and art.
Notez d'ailleurs qui cohabite avec l'ami Charles...

Employer le vocable "darwinisme" permet également de donner une patine XIXe siècle, et donc de la caricaturer comme une vieille théorie passéiste, n'ayant pas elle-même évolué. C'est un trait assez courant, en particulier de la part des scientifiques non biologistes qui s'intéressent au sujet. C'est en fait très malvenu et révèle plutôt à mon avis une mauvaise interprétation de la théorie ou des connaissances de la discipline. C'est typiquement le genre d'exercice auquel se livre Dembski sur Uncommon descent. Voir par exemple ce billet : Dembski affirme que le fait que certains organismes aient des moyens de contrôler leur taux de mutation contredit le "darwinisme". Autant reprocher à Galilée de ne pas avoir introduit la notion d'espace-temps ! Ce que Dembski ne reconnaît pas, c'est que la théorie de l'évolution proposée par Darwin est avant tout un cadre conceptuel : ce n'est pas parce que Darwin n'a pas anticipé les découvertes récentes de la biologie que sa théorie ne colle pas à ces découvertes.

Enfin, dans la même veine, d' aucuns "reprochent" au "darwinisme" ne pas être prédictif, notamment à la lumière de ce qui existe dans d'autres domaines scientifiques. C'est vrai : la théorie de l'évolution est une théorie qu'on peut qualifier pour l'instant de "rétrospective", elle permet d'expliquer les observations a posteriori. C'est déjà un gros progrès, après tout, il y a deux siècles, personne ne croyait que les espèces évoluaient. Mais surtout, il faut bien voir que la proposition de Darwin n'est évidemment qu'un début. Si on compare à la physique (ce que certains ID n'hésitent pas à faire dans leur style habituel tout pétri de bon sens et de mauvaise foi) , d'un point de vue théorique, la biologie en est encore au XVe siècle : nous n'en sommes qu'au stade des observations, de la description de la mécanique des corps. Darwin, c'est Copernic : il a compris que la Terre tournait autour du Soleil, il a compris le cadre général et qualitatif; la théorie de l'évolution attend néanmoins toujours son Newton qui saura mettre tout cela en équations.

Pour conclure, les adversaires de la théorie de l'évolution ont adopté (consciemment ou non) une stratégie assez simple : plutôt que d'attaquer le fond de la théorie telle qu'elle existe aujourd'hui, beaucoup se focalisent sur Darwin, l'homme du XIXe siècle. Cela passe par l'emploi d'un vocabulaire particulier ("darwinisme") et par une lecture faussement naïve et non actualisée de ses théories à la lumière des connaissances d'aujourd'hui. Pour cela, il serait donc préférable d'en finir avec la terminologie "darwinisme"...

12 mars 2007

Critique I : de l'oeuf à l'éternité

Comme promis, quelques critiques sur le livre de Vincent Fleury. J'avais prévu de faire un seul billet, mais je vais être obligé de le diviser en plusieurs parties. On commence par une partie assez technique tout d'abord, que je vais m'efforcer de vulgariser au maximum.

Je précise que cette critique est faite relativement rapidement, à chaud, et uniquement à la lumière de mes connaissances. Tout comme Fleury, je suis physicien, intéressé à la biologie, mais je ne suis pas omniscient. J'invite tout le monde à me corriger le cas échéant, et je serai heureux de discuter de toute cela, y compris et surtout (pourquoi pas) avec Vincent Fleury.

Le thème récurrent du livre de Vincent Fleury est une opposition que je qualifierai de "génétique-mécanique". Il développe une théorie de l'évolution très déterministe, en affirmant que la génétique ne décide quasiment rien, que la mécanique décide de quasiment tout.

Je concentrerais mes critiques/questions sur ce point, tout d'abord en expliquant pourquoi cette affirmation me semble en partie fausse en ce qui concerne les vertébrés dans un premier temps.

Les déterminants génétiques de l'embryogenèse des vertébrés

Le problème de base rejoint à mon sens une vieille controverse de la biologie du développement : comment des embryons (ou des gamètes) ne possédant aucune structure apparente peuvent-ils donner naissance à un être vivant hautement complexe et organisé ?

Aristote fut l'un des premiers à répondre à cette question (Wolpert p3). Il considéra deux possibilités : soit toutes les parties du corps existent déjà dans l'embryon et ne font ensuite que grossir, soit les nouvelles structures naissent et s'organisent progressivement. Il pencha pour la seconde idée. Cependant, c'est la première qui rencontra le plus grand succès, aboutissant au cours du XVIIème siècle à la théorie de l' homoncule. Cette théorie proposait que le corps humain était déjà préformé dans le spermatozoïde, et ne faisait ensuite que grossir. D'où la fameuse théorie scientifico-religieuse des "reins d'Adam", stipulant que toute l'humanité devait être contenue dès la création dans la semence du premier homme, emboitée telle une poupée Russe !

Aujourd'hui bien sûr on sait qu'il en est tout autre et qu' évidemment les structures apparaissent les unes après les autres. On sait en particulier que différents gènes sont exprimés successivement à différents endroits dans l'embryon, donnant naissance aux différentes structures. Cependant, Fleury nous explique ce qui le gène dans la biologie du développement moderne (p20):

La biologie actuelle "se rattrape" en supposant que les parties les plus complexes, un bras ou une tête d'homme, sont obtenues par des successions de bandes de produits chimiques s'organisant dans toutes les directions de l'espace.

Cette description de la formation de l'organisme est une description de la théorie dite "mosaïque", version moderne de la théorie de l' homoncule. Les structures finales ne préexistent pas, mais l'embryon serait quadrillé pour donner naissance aux futures structures. D'une certaine manière, si l' homoncule n'est pas présent, il serait déjà esquissé et prêt à surgir. Fleury y préfère une théorie purement mécanique, que j'interprète comme basée sur l'auto-organisation (ce qu'il appelle le mécanisme physique sur son site lorsqu'il parle de la segmentation). Il est physicien : il connaît très bien la littérature sur la formation de structures complexes à partir de règles simples, lui -même a proposé des modèles de formation de vaisseaux sanguins. Pour lui il me semble, les structures vivantes ne peuvent se réduire à des quadrillages plaqués sur l'embryon : trop compliqué, pas assez robuste. La seule façon réaliste pour que ça marche est que les choses s'auto-organisent d'une certaine façon. Ainsi, on sait très bien que les tâches des léopards ou les bandes des zèbres ne sont évidemment pas codées individuellement génétiquement : en fait, il y a un processus physique sous-jacent (type mécanisme de Turing) qui créée ses structures spontanément. Dans un domaine différent, l'embryogenèse, il propose qu'un mécanisme simple de mouvements cellulaires locaux aboutit à la formation naturelle de la structure globale des tétrapodes (de même que de simples molécules qui diffusent à des vitesses différentes localement peuvent créér de jolis motifs à l'échelle globale).

Bien évidemment, tout est en fait question de dosage entre ces différents processus (mosaïque vs auto-organisé). Le premier reproche que je ferais à Vincent Fleury est d'omettre certains faits de bases : oui certaines structures sont codées génétiquement dès le départ, oui l'embryon a besoin d'un "quadrillage" génétique pour savoir ce qu'il va faire. L'exemple canonique est l'embryon du xénope dont j'ai déjà parlé dans un billet précédent. Il a été démontré sans ambiguité que des déterminants purement génétiques, des gradients de substances chimiques sont nécessaires pour définir les futures structures de l'embryon. La meilleure preuve est donnée par la fameuse expérience de Spemann : en transposant des cellules de la future région "dorsale" de l'embryon (qu'on appelle depuis organisateur de Spemann) sur le ventre de l'embryon, l'effet est de créer un deuxième dos, et en fait un deuxième axe tête queue qui aboutira plus tard à la formation de siamois. Ceci montre que les cellules ne sont pas interchangeables, qu'il y a des déterminants moléculaires contenus dans la cellule, et que donc les mouvements cellulaires dépendent en premier lieu d'une information purement génétique.

Là vient la deuxième critique que je ferais à ce livre : j'ai été très étonné de constater que Fleury passe totalement sous silence des faits expérimentaux... qui collent très bien à sa théorie ! Car oui, il y a effectivement des flots cellulaires qui définissent un axe tête queue. L'expérience qui le montre a été réalisée par Joubin et Stern, qui ont montré comment la notocorde se formait par la rencontre de deux jets de cellules précisément au niveau de l'équivalent poulet de l'organisateur de Spemann. Seulement, Joubin et Stern ont également montré que la formation de cet organisateur était dirigée génétiquement. Donc encore une fois, c'est un signal génétique qui dirige la formation de cette structure. J'ai été très surpris en lisant ce livre de ne voir absolument aucune référence à cette expérience, et je me demande pourquoi... D'ailleurs, il n'y a pour ainsi dire aucune référence à d'autres travaux scientifiques (à part la fameuse Anne Dambricourt), ce qui me semble être un choix un petit peu étrange compte-tenu de la quantité de littérature assez facilement vulgarisable sur le sujet, surtout que par ailleurs des illustrations tirées d'autres articles (Barabasi, Davidson...) sont utilisées, et que j'aurais beaucoup apprécié une discussion des "autres" travaux.

Venons-en donc au point suivant : la formation des membres et la segmentation. Je mets les deux exemple ensemble car il semble que là-encore, les mécanismes soient assez similaires. Fleury le répète plusieurs fois dans son livre : il n'y a pas de gènes associés à une vertèbre donnée. C'est vrai, mais ce que Fleury ne dit pas est qu'il y a au contraire sans aucun doute le même gène exprimé plusieurs fois définissant plusieurs vertèbres. De la même façon, il y a des marqueurs génétiques précis correspondant à l'avant et à l'arrière des vertèbres : si l'on tue ces gènes, toutes les vertèbres sont fusionnées et perdent leur structure. Donc là encore, la génétique a un grand rôle. Par ailleurs, comme je l'ai expliqué sur ce blog, la formation de ces structures est un mécanisme essentiellement génétique : une horloge génétique agit dans une zone de croissance déterminée génétiquement par des facteurs de croissance et définit un front de différentiation qui génère des zones d'expression génétiques régulières des marqueurs correspondant. Pas ou peu de mécanique ni de processus de Turing là-dedans, juste une expression temporelle de gènes un peu compliquée dépendant des interrégulations et du processus dynamique de croissance. La formation des membres semble obéir aux mêmes lois : une horloge de segmentation similaire a récemment été mise en évidence chez la poule (Pascoal et al.). Par ailleurs, à l'image de ce qui a été fait pour l'organisateur de Spemann, il y a de nombreuses expériences de transfert de cellules, montrant que si l'on met les bonnes cellules au bon endroit, on peut littéralement faire pousser un bras (Wolpert p 460 Fig. 13.7 pour les organismes capables de se régénérer) ou une colonne vertébrale (Wolpert p 169 Fig. 4.20 au stade embryonnaire) n'importe où... Cela montre bien selon moi que les mouvements cellulaires ne contraignent pas le plan d'organisation final et que tout est jeu d'expression localisées.

Pour finir cette partie, juste un mot sur la symétrie gauche-droite. La symétrie bilatérale ne va pas de soi chez les vertébrés. En fait, plusieurs expériences récentes ont montré que cette symétrie était spontanément brisée (ce qui explique d'ailleurs que les structures à l'intérieur du corps ne soient pas symétriques), et qu'en fait certaines molécules étaient là pour littéralement rétablir la symétrie pour les parties importantes devant être symétriques, comme la colonne vertébrale (Vermot & Pourquié). Ainsi, une substance appelée "acide rétinoïque" est chargée de rééquilibrer la brisure de symétrie gauche-droite pour avoir des somites de même tailles des deux côtés. Ceci ne colle pas du tout avec la théorie de V. Fleury pour qui les organismes sont symétriques "par construction". Maintenant, cela ne dit pas que les animaux primitifs n'étaient pas effectivement symétriques, mais si l'évolution a été capable de briser la symétrie globalement tout en la conservant pour le squelette, cela donne un contre-exemple à mon avis flagrant du fait que l'évolution du plan du corps des bilatériens est contrainte.


Références :

Lewis Wolpert, Principles of development, third edition, oxford (excellent bouquin, accessible aux profanes)
Joubin K & Stern CD, Molecular interactions continuously define the organizer during the cell movements of gastrulation. Cell. 1999 Sep 3;98(5):559-71.
Pascoal S, Carvalho CR, Rodriguez-Leon J, Delfini MC, Duprez D, Thorsteinsdottir S, Palmeirim I.,A Molecular Clock Operates During Chick Autopod Proximal-distal Outgrowth. J Mol Biol. 2007 Feb 9
Vermot J, Pourquié O, Retinoic acid coordinates somitogenesis and left−right patterning in vertebrate embryos, Nature 435, 215-220 (12 May 2005)

10 mars 2007

Lecture : de l'oeuf à l'éternité

Je me suis procuré le dernier livre de Vincent Fleury : de l'oeuf à l'éternité. Un livre intéressant et stimulant intellectuellement (même s'il va certainement trop loin, surtout sur la fin), qui contient de la matière pour plusieurs billets. Comme je suis un peu paresseux, je vais commencer par une présentation de ce que je comprends de ses thèses et garderai le reste pour plus tard.


Vincent Fleury s'attaque dans ce livre à un problème gigantesque : l'émergence du plan d'organisation des animaux, et son évolution. Il essaie de prendre de la hauteur et de considérer le problème dans sa globalité, en héritier de chercheurs comme d'Arcy-Thompson, qui en son temps, avait montré comment on pouvait facilement passer d'un poisson à l'autre à l'aide de simples transformations géométriques.

Fleury propose que le plan moderne des animaux modernes, et en particulier des tétrapodes (animaux à quatre pattes), a pu apparaître extrêmement rapidement en l'espace de quelques générations. Sa théorie est essentiellement mécanique : il propose de voir l'embryon comme une espèce de "pâte" plastique. A l'intérieur de cette "pâte", ce sont les flots de cellules, les mouvements qui créent les structures du corps. Il illustre cette idée en décrivant son idée du chemin d'évolution des "tétrapodes".

Le schéma ci-contre est adapté de son livre et décrit comment on peut passer d'un embryon rond à un tétrapode. Je schématise, mais si j'ai bien compris, l'idée est qu'à partir d'un embryon rond, deux flots de cellules allant dans des directions opposées se heurtent de plein fouet, cintrant l'embryon en forme de 8, créant une fissure dans lequel le flot de cellules s'engouffre (futur axe tête queue, la tête est en haut sur mon schéma) , et formant du coup quatre "tourbillons", deux pour les "fesses" et deux pour les "épaules". Le mieux à ce stade est d'aller jeter un coup d'oeil sur les images de son site web (ou d'acheter le livre). La photo la plus parlante est celle de son chat "Sushi" vu du dessus, illustrant sa théorie des enroulements dans l'embryon. L'autre image explicative est la photo de sa chemise à carreau plus bas, où l'on voit comment les tourbillons créent cette structure bien précise. Ce schéma d'organisation aurait pu apparaître très vite au cours de l'évolution : il suffit de "déclencher" deux flots de cellules, et la mécanique fait le reste pour créer le plan de base. A partir de là, des bourgeons de tête, de queue et de membres sont créés, qui ont pu ensuite se spécialiser de plus en plus, se structurer au cours de l'évolution. Ce plan très contraint impose donc un cadre très strict à l'évolution (voir sa théorie personnelle ici) :

[L]'espace des animaux possibles est extrêmement limité. Les caractéristiques tels que : allongé, avec une queue derrière, une tête à l'avant, un tube creux à l'intérieur, des nageoires ou pattes qui battent comme il faut pour que l'animal avance (brisure de symétrie induite par l'enroulement) sont une conséquence physique du phénomène. Evidemment, [il] faut des molécules pour faire tout ça, mais le résultat est automatique "de même" que la plupart des troncs d'arbres sont cylindriques malgré les différences génétiques.

En ce sens, on n'est d'ailleurs pas très loin de la théorie des noyaux de Davidson. Par ailleurs, Fleury est du coup extrêmement critique sur ce qu'il appelle le "trompe-l'oeil moléculaire", l'idée qu'un gène est associé à une partie du corps donné, et qu'il y a autant de gènes que de structures. A la théorie du "tout" génétique, Fleury oppose un "presque tout" mécanique.

A l'image de Darwin, Fleury parachève sa théorie de l'évolution par une discussion dans le dernier chapitre du livre sur l'évolution de l'homme. Sa thèse est relativement simple : l'homme évolue naturellement par le "prolongement" de tous ses mouvements tourbillonnaires. Voilà résumée sa théorie de l'évolution, une fois le plan des tétrapodes fixé : le sens des tourbillons impose naturellement un axe antéro postérieur car il fixe des articulations opposées entre les coudes et les genoux, et donc un sens de déplacement privilégié de l'animal. A l'avant, il est donc très favorable de développer une "tête" chargée d'absorber la nourriture, et donc acquérant peu à peu les facultés de perception et d'analyse (bref une bouche, des yeux, des oreilles et un cerveau). Des tourbillons plus développés au niveau des membres impliquent la bipédie, des tourbillons plus importants au niveau de la tête entraîne son grossissement, un aplatissement et un agrandissement du front au détriment de la mâchoire qui recule, ainsi que le recul du fameux sphénoïde qui a suscité une polémique récente. Gros cerveau, grosse tête : voici l'homme ! Deux prédictions (très très osées) sont faites dans le livre : les tétrapodes pourraient tous évoluer vers l'intelligence et la bipédie dans un même mouvement du fait du mécanisme de formation de l'embryon (et quiconque a un chat recevra peut-être cet argument favorablement ;) ). L'autre prédiction, c'est que si on découvre une race extraterrestre intelligente (donc avec un gros cerveau) sur une autre planète un jour, elle ressemblerait nécessairement à un tétrapode bipède, avec une tête bien développée tout en haut, une petite mâchoire et un joli sourire. Elle serait donc humanoïde !

Comme je le disais plus haut, le livre est intéressant, mais certainement pas exempt de critiques. Au delà des extrapolations osées sur la fin, il faudrait discuter ses piques (1) contre la théorie de l'évolution et ce qu'il appelle "le trompe-l'oeil moléculaire", et également remettre sur le tapis certaines choses qu'il ne discute pas et qui vont à l'encontre de sa théorie à mon avis, comme le développement de la drosophile par exemple (contre-exemple du "tout" mécanique), ou encore le fait que le plan d'organisation des tétrapodes est certainement dérivé par rapport aux autres animaux.


(1) qui relèvent à mon avis un peu du procès d'intention à l'encontre des biologistes

06 mars 2007

Demande de bourse pour un post-doc

Quelques champs à remplir dans une demande de bourse en France :

Nom :
Prénom :
Date de Naissance :
Profession des parents :
...
Ressources financières : Aide des parents :
...
Directeur de thèse :
Numéro de portable du directeur de thèse :

C'est sympa, on ne se sent pas infantilisé du tout. Et oui, si vous avec 28 ans, êtes bardés de diplômes et voulez faire de la recherche relativement de haut niveau, une seule solution : empruntez de l'argent à vos parents, et surtout, soyez bien avec votre directeur de thèse !

A part ça, le blog restera probablement silencieux cette semaine, vu que je ne suis pas sûr d'avoir une connexion internet avant lundi prochain.

03 mars 2007

Du baptême en science


Mettons-nous un instant dans la peau d'un découvreur, un vrai. Un scientifique qui vient de découvrir un nouvel phénomène, et qui a la lourde et honorable tâche de le baptiser. Comment donc procéder ?

Les physiciens sont des gens sérieux. Héritiers d'une tradition millénaire (le terme "atome" remonte à Démocrite) , où les vraies découvertes sont rares, ils ne peuvent se permettre de plaisanter. Ils respectent le passé : soit de nouveaux termes descriptifs sont forgés avec sérieux (supraconductivité ), soit il s'agit de rendre hommage aux découvreurs, voire aux grands anciens (bosons, fermions, télescope Hubble, paires de Cooper ...). Ainsi les noms des Grands génies de la science physique sont-ils gravés dans le marbre pour l'éternité... Il ne s'agirait pas de renouveler l'expérience du "big-bang" - donné par Fred Hoyle par dérision; à peine s'est-on permis quelques fantaisies pour baptiser les célèbres quarks à partir d'un poème de James Joyce (parce que bon, il faut bien que cela reste illisible par le commun des mortels ;) ).

Le contraste avec la biologie est grand. Admettons-le : le baptême des phénomènes en biologie relève très souvent du grand n'importe quoi. Bien sûr, il y a quelques personnes sérieuses, mais la concaténation de racines grecques sur de l'Anglais a produit des monstres chimériques (comme spliceosome). Quant aux noms des gènes, disons que les biologistes sont très facétieux, et n'hésitent pas à faire appel à la culture populaire. Mon petit classement des noms de gènes préférés :
- le gène groucho chez la drosophile, appelé ainsi en référence à Groucho Marx, car il donne de gros "sourcils" à la drosophile,
- le fameux gène Sonic Hedgehog, homologue du gène hedgehog, dont la mutation hérisse la mouche de petits piquants. Le Sonic n'est qu'un juste retour des choses puisqu'il s'agit de l'homogue chez les mammifères,
- le gène bric à brac (bab), référence au désordre créé dans les ovaires des mouches chez les mutants...
Et j'en passe : shaggy, millepattes, hunchback ...
Cela me fait toujours un peu drôle d'entendre des noms si originaux lors de conférences très sérieuses. Bien sûr, il y a beaucoup plus de choses à nommer en biologie, mais cela ne révèle-t-il pas une façon très différente dans les différents domaines scientifiques d'envisager la science et le passage à la postérité. Qui se souviendra dans 200 ans des découvreurs de tous ces gènes ?

(Sur un sujet un peu similaire, voir aussi ce billet d'Enro)

02 mars 2007

Hérésie scientifique, épisode II

L'épisode I

Avant tout, toutes mes excuses pour le billet précédent, qui n'était effectivement qu'une parodie de ma main comme certains l'ont deviné ... Ce blog n'est pas près de devenir une annexe de uncommondescent !

Les propositions de Davidson et Erwin ont un parfum d'hérésie, toute autant religieuse que scientifique. Sans remettre en cause l'évolution, ils affirment en effet que certains niveaux d'organisation des organismes ne peuvent évoluer par nature et sont invariants depuis le Cambrien. Evidemment, une telle assertion ne peut que réjouir les Intelligent Designer (voir par exemple ce billet), d'autant que Davidson et Erwin se permettent ce genre de phrases dans leur article de Science.

Classic evolutionary theory, based on selection of small incremental changes, has sought explanations by extrapolation from observed patterns of adaptation. Macroevolutionary theories have largely invoked multi-level selection, among species and among clades. But neither class of explanation provides an explanation of evolution in terms of mechanistic changes in the genetic regulatory program for development of the body plan, where it must lie.



Davidson et Erwin sont donc de grands taquins, et ont provoqué une levée de bouclier. Ils se sont faits souffler dans les bronches dans un commentaire de Coyne, toujours dans Science :

Finally, Davidson and Erwin claim that neither micro nor macroevolutionary theory explains the evolution of "the genetic regulatory program for development of the body plan". If one accepts the view that differences between phyla or between other higher level clades involve the accumulation of lesser differences between lower level clades over long periods, then microevolutionary theory (i.e., adaptive accumulation of micro-mutations through natural selection) does explain the evolution of different body plans. Indeed, there can hardly be another explanation.



Ce à quoi Davidson et Erwin ont répondu, avec tout d'abord quelques petits procès en incompétence :


Coyne's conflict is not with our review as much as with developmental biology and its implications for evolutionary process.

(...)

Here again, Coyne's conflict seems to be with much of modern molecular biology and its explanatory potency rather than with our paper.



Puis une ligne de défense des plus classiques : vous m'avez mal compris !



Coyne's final point creates a false dichotomy. Abundant evidence from the Ediacaran-Cambrian fossil record has established the rapidity of morphologic change. Coyne fails to address this pattern and presents as the only "reasonable" view the position that differences between phyla reflect long periods of evolution. As paleontologists have been pointing out for decades, however, this is simply not the pattern that we observe, and for many durably skeletonized groups it is clear that one cannot invoke inadequacies in the fossil record. Nowhere in our paper did we reject natural selection, because we support it.


L'Evo-Devo est un petit monde bien animé... Toujours est-il que ces travaux ouvertement provocateurs peuvent être très facilement interprêtés comme des confirmations de l'Intelligent Design, comme j'ai essayé de le démontrer dans le billet parodique précédent, d'où des réactions passionnées et un peu violentes de certains biologistes comme Coyne. De fait, Davidson a raison : Coyne a probablement mal compris le papier original. D'un autre côté, la position de Davidson et Erwin est assez inconfortable : il est osé d'affirmer brutalement que des réseaux construits par l'évolution s'en retrouvent tout d'un coup exclus. Malheureusement, Davidson et Erwin ne nous font pas part de leurs explications sur ce sujet, ce qui est assez fâcheux et leur vaut scepticisme et réactions courroucées de la communauté. Pourtant, ils ont sans aucun doute une explication (en fait, j'ai vu une conférence de Davidson, où il prévoyait clairement de parler de l'évolution de ces kernels, mais il n'a pas eu le temps d'aborder ce sujet... A mon avis, ils en feront un prochain papier dans Science !). Dans tous les cas, toute cette histoire est l'illustration même que, contrairement à ce qu'affirment les religieux de tout poil, la science n'est pas figée, et que même des théories fondatrices comme celles de l'évolution peuvent être questionnées et affinées, y compris et surtout dans des revues comme Science.

Sinon, le "Snowball creationnism" est une totale invention de ma part, basée sur l'hypothèse de la Snowball Earth. En fait, Davidson pense effectivement que l'explosion Cambrienne a été initiée par le réchauffement climatique qui a suivi et qui a permis d'augmenter la concentration d'oxygène dans l'océan, tout en libérant de nouvelles niches écologiques du fait de la fonte des glaces. Encore un exemple du couplage très fort entre climat et évolution.

Références

Comment on "Gene Regulatory Networks and the Evolution of Animal Body Plans", J. A. Coyne, Science 313, 761 (2006);
Response to Comment on "Gene Regulatory Networks and the Evolution of Animal Body Plans", Douglas H. Erwin1,and Eric H. Davidson, Science 313, 761 (2006);

01 mars 2007

Les noyaux de l'hérétique Docteur Davidson

Courrier des lecteurs :

A diffuser !!!

Un article écrit par Eric Davidson et Douglas Erwin, paru dans la prestigieuse revue Science datée du 10 Février 2006, semble apporter une confirmation éclatante de la théorie scientifique de l'Intelligent Design .

Davidson et Erwin ont étudié les interactions entre les gènes de différents animaux modernes, i.e. comment les gènes se "parlent" entre eux, comment ils s'activent ou se répriment les uns les autres. En comparant les structures de ces réseaux génétiques, ils n'ont pu que constater l'existence de modules irréductibles, extrêmement conservés, qu'ils appellent "kernels" (voir la figure ci-jointe). Ces noyaux sont des petits réseaux génétiques complexes, très intriqués, réalisant des fonctions très précises. Par exemple, l'un de ces réseaux est supposé diriger la formation des cellules cardiaques. Les comparaisons phylogénétiques ont mis en évidence le fait que ces noyaux sont communs à quasiment tous les animaux connus, et donc existaient déjà lors du Cambrien. L'évolution depuis cette époque ne semble avoir agi que sur les liens entre ces modules, sans toucher les modules eux-mêmes. Comme l'expliquent si bien Davidson et Erwin :

We think that change in them is prohibited on pain of developmental catastrophe, both because of their internal recursive wiring and because of their roles high in the developmental network hierarchy

Nous pensons que tout changement dans [ces noyaux] est interdit sous peine de catastrophe sur le développement, non seulement à cause de leur structure interne récursive, mais aussi à cause de leur rôles très importants dans le hiérarchie des réseaux de développement


Comment ne pas voir ici la définition même de la complexité irréductible, proposée par Michael Behe pour identifier les briques du vivant posées par le créateur ? Bien sûr, Davidson et Erwin, pervertis par leur morale d'esclave, en retournent à leur Bible darwinienne pour expliquer l'apparition de ces modules, tout en reconnaissant que leurs perfections les a par la suite protégés de tout changement évolutif. Y a-t-il plus belle preuve d'aveuglement ?

Cette découverte confirme également la théorie du "Snowball Creationism", dont je suis l'auteur. Cette hypothèse révolutionnaire stipule que le déluge relaté dans la Bible serait en fait cette période géologique durant laquelle la Terre était majoritairement recouverte de glace, et la vie quasiment éradiquée (Snowball Earth comme l'appellent les scientifiques aveugles au dessein divin). Peu après cette période s'est justement produit ce big-bang de la vie, l'explosion cambrienne popularisée par l'idole des jeunes darwiniens, Stephen Jay Gould : ainsi, dans les couches géologiques de cette époque apparaissent soudainement des fossiles d'organismes extrêmement sophistiqués, contenant en germe les plans d'organisation des animaux actuels. Evidemment, aucun darwininen n'est en mesure d'expliquer pourquoi et comment cette explosion de vie a pu se produire là où les esprits lucides ne peuvent voir qu'un nouvel ensemencement du créateur sur une Terre purifiée (d'aucuns prétendent que le réchauffement climatique aurait permis une réoxygénation et une libération de nouvelles niches écologiques propices à l'évolution, ce que personne ne peut démontrer de toutes façons). Les kernels observés par Davidson et Erwin ne sont selon moi rien de moins que les graines semées par le Tout-Puissant, et aujourd'hui révélées dans toute leur splendeur par l'étude attentive de Sa création.

Quoi qu'il en soit monsieur Roud, je fais confiance à votre regard de scientifique et me permets de vous adresser ce mail afin que vous le publiiez sur votre blog. Que la vérité éclate enfin à la face du monde !!!


Bien à vous
Adam Roudski



Référence :
Gene regulatory networks and the evolution of animal body plans. Davidson EH, Erwin DH.Science(2006) Vol. 311. no. 5762, pp. 796 - 800