Carnet du petit Tom : Physique, biologie et évolution...

16 avril 2007

Sondages : le grand n'importe quoi de la dernière ligne droite



  • La frénésie sondagière est de plus en plus pathétique. Les commentaires journalistiques sont à l'avenant. En témoigne cette capture d'écran du figaro.fr (je sais, on m'a souvent déconseillé de lire le figaro, ce serait mauvais pour mon coeur), avec deux commentaires de sondages totalement contradictoires...


  • IPSOS a attendu mon dernier billet sur les sondages pour publier des résultats... encore plus absurdes. Ainsi, pendant 7 sondages consécutifs la semaine dernière, Sarkozy a été donné à un score fixe de 54% ! Toutes mes félicitations à IPSOS qui semble donc être capable de réduire la marge d'erreur à quasiment zéro ! J'ai refait rapidement mon étude du billet précédent sur les sondages, on bat tous les records : ma statistique d'écart entre les maxima/minima me donne une plausibilité de la série de sondages de l'ordre de 0.05 %, i.e. 99.95% des séries de 38 sondages consécutifs montent plus haut ou descendent plus bas que la série IPSOS. La raison pour cette brusque décroissance dans la plausibilité est une série de sondages où Sarkozy est placé à un score très haut (54%) et très stable. Si Sarkozy est effectivement à 54%, les sondages devraient flirter par moments avec 56, 57 %, or ils restent "scotchés" à 54.5% au maximum, soit une marge d'erreur de l'ordre de 0.5% au plus. Cela sent plus que jamais la manip. Pour la beauté du geste, je redessine ma bosse gaussienne, je vous rappelle que la hauteur de la bosse est proportionnelle à la probabilité d'apercevoir un couple "maxima-minima" dans une série de sondages, la flêche rouge indique le score d'IPSOS. La série de sondages d'IPSOS tombe dans une zone à très fabile probabilité. Petit point technique en passant : je me suis aperçu que pour éviter tous les artefacts de discrétisation dans mes simulations, il fallait prendre un nombre d'électeurs multiples de 200 pour des sondages évalués au demi-point près. La raison est que dans le cas contraire, comme le nombre d'électeurs est fini, certains résultats de sondages deviennent plus improbables (par exemple avec 100 électeurs, on ne peut évidemment pas trouver un score de 53.5%). C'est ce qui expliquait que mes gaussiennes n'étaient pas totalement symétriques dans mon billet précédent (mais rassurez-vous, cela ne change absolument rien à l'étude).
  • Toujours sur les sondages IPSOS, je me suis amusé à comparer "à l'oeil" des simulations de protocoles IPSOS (un sondage de 400 personnes par jour, moyenne sur 3 jours) avec des simulations de sondages indépendants. Je voulais comprendre si les sondages moyennés sur 3 jours étaient vraiment plus "lissés". Les sondages IPSOS réels sont en rouge, les sondages simulés moyennés sur 3 jours en bleu, les sondages indépendants en vert, la moyenne des sondages réels en bleu clair (53.5%). On voit toujours assez clairement qu'il y a quelque chose qui cloche dans la variabilité des sondages IPSOS. On voit aussi clairement que la courbe bleue n'est pas plus lisse que la courbe verte : elle fluctue autant et est simplement plus "corrélée" dans le temps (c'est rétrospectivement assez compréhensible). En revanche, on voit aussi que ce protocole de moyennage sur trois jours fausse pas mal la perception des choses : la marge d'erreur sur 400 personnes est assez grande, et quand on a une ou deux fluctuations assez grandes dans un sens, les fluctuations persistent assez longtemps dans le temps. Cela peut donc fausser complètement la perception tirée de ces sondages... Encore une fois, je ne sais pas comment IPSOS a concilié tous ses effets complètement délétères qui sont assez clairs dans les simulations numériques.
  • J'ai soumis un article récapitulatif de tous mes billets sur les sondages à Agoravox. On verra bien; avec la chance que j'ai dans mes soumissions d'articles en ce moment, j'ai toutes les chances d'être refusé ;)
Ajout 18 Avril : l'article a été publié sur Agoravox, suivez le lien .

12 avril 2007

Physique vs biologie : la science doit-elle être jolie ?

Un article de Nature de cette semaine [1] s'ouvre par cette phrase étonnante :



"The standard model is horribly ugly, but the data support it."

"Le modèle standard est horriblement laid, mais est confirmé par les données."

(Note de traduction : j'ai remis l'expression "modèle standard" suite à la remarque d'Eric C en commentaire)

Pour expliquer les observations cosmologiques, il est nécessaire de supposer l'existence de matière noire (dont nous avaient déjà parlé Matthieu et Sevene), et d'une "énergie du vide" ou "énergie noire", qui se traduit dans les équations par une "constante cosmologique" (voir en fin de billet pour plus de détail). Seulement, le problème, c'est que cette explication est, je cite l'article de Nature "a profound problem from the viewpoint of fundamental physics". Cette constante implique en effet qu'il est, en gros, possible d'extraire de l'énergie du vide, de créer quelque chose à partir de rien, et que cette création a lieu en tous points de l'univers en permanence ! Evidemment, c'est à la fois problématique théoriquement, et improbable scientifiquement; pourtant, cela marche très bien phénoménologiquement .

Naturellement, les physiciens théoriciens ne peuvent accepter cela. Quoi, un terme "ad hoc" dans un équation ! Quelle horreur ! De fait, on les comprend : la physique théorique s'est construite quasiment exclusivement sur l'idée de "beauté mathématique". Par exemple, tout le modèle standard (le vrai) a été construit à l'aide de considérations de symétries, amenant à utiliser la théorie des groupes pour décrire et prédire l'existence des particules. Dans un autre domaine, c'est l'extension du principe de relativité de Galilée qui a amené Einstein à proposer sa théorie de la relativité. C'est évidemment une version un peu romancée de l'histoire de la physique, mais il y a un fond de vrai : les physiciens théoriciens ont remporté leurs plus grands succès en dérivant le maximum de choses de premiers principes simples. Et aujourd'hui, certaines théories des cordes sont jugées à l'aune de leur "beauté" mathématique ...

La question se pose donc naturellement lorsque l'on vient de la physique théorique : la nature est-elle mathématiquement belle ? Entre deux théories scientifiques, la plus simple, la plus dépouillée mathématiquement (et donc la plus profonde) est-elle a priori la plus juste ? La science doit-elle être "jolie" ? Depuis que j'ai mis les mains dans le cambouis biologique, je suis bien obligé de constater que les physiciens font (parfois, mais pas souvent :P) fausse route.

La nature a en effet le mauvais goût d'avoir engendré des horreurs mathématiques. En particulier dans un de mes domaines favoris : le développement. L'image ci-contre représente l'expression d'un des gènes cruciaux de la segmentation de la drosophile: even-skipped, dit eve. Le motif observé naturellement est représenté sur les panneaux a à c.
Admirez l'espacement remarquable des bandes, leur caractère très homogène plutôt surprenant quand on sait le bruit existant dans toutes les interactions génétiques. Un physicien théoricien, voyant un tel motif, a un réflexe quasi-pavlovien : REACTION-DIFFUSION, MOTIF DE TURING ! Pour un théoricien, seul un processus "émergent", auto-organisé, peut aboutir à une telle perfection, à une répétition de motifs aussi réguliers : c'est d'ailleurs un tel processus qui est probablement à l'origine des bandes des zèbres. Tous, biologistes y compris, pensaient bien qu'un tel mécanisme physico-chimique était à l'origine des bandes de segmentation. Or il se trouve que Stephen Small et son équipe ont en fait découvert qu'il n'en était rien : toutes les bandes se forment de manière indépendante, utilisant toutes des mécanismes différents. Ainsi, a-t-on pu identifier un module génétique associé à la bande numéro 2, un autre module pour la bande numéro 5, un module pour les bandes 3 et 7, un autre pour les modules 4 et 6... Des modules différents, régulés par des protéines différentes, amènent à la formation d'un joli quadrillage parfaitement régulier et de bandes apparemment identiques. Si le résultat est très joli, le mécanisme, d'un point de vue purement mathématique, est sans aucun doute très laid !

La conclusion, c'est que dans certains domaines de la science en tous cas, rechercher la "beauté" peut très certainement vous amener à faire fausse route. L'exemple de la segmentation de la drosophile est d'ailleurs typique : non seulement on s'attend naturellement à ce que toutes les bandes apparaissent contrôlées par un même mécanisme, mais le fait de savoir que ce n'est pas le cas devrait nous interpeler davantage encore. En effet, s'il y a un mécanisme physico-chimique à l'origine de motifs, rien de surprenant à ce qu'ils soient réguliers; mais si on a un motif d'origine d'origine purement génétique, comment se fait-il que l'évolution ait convergé vers la construction d'un motif régulier ? Autrement dit, si la bande 1 et la bande 7 se forment indépendamment, pourquoi ont-elles la même taille ? N'est-ce pas l'indication que plus tôt dans l'évolution, les bandes devaient se former à l'aide d'un processus plus auto-organisé, comme la somitogenèse ? Ainsi, peut-être qu'en biologie, à la différence de la physique, c'est en interrogeant les laideurs de la nature que nous la comprendrons le mieux...


Référence :

[1] Physicists question model of the Universe, Jenny Hogan, Nature 446, 709 (2006)
[2] A self-organizing system of repressor gradients establishes segmental complexity in Drosophila, Dorothy E. Clyde, Maria S. G. Corado, Xuelin Wu, Adam Paré, Dmitri Papatsenko and Stephen Small, Nature 426, 849-853( 2003)



Gros PS sur la constante cosmologique :

On a longtemps cru que l'expansion de l'univers n'était due qu'à l'inertie du big-bang. L'action de la gravité, tendant à s'opposer à cette expansion, aurait dû normalement amener un ralentissement de cette expansion, puisque l'inertie du big-bang devrait se dissiper au cours du temps tandis que la matière, elle, est toujours présente. Or, l'expansion de l'univers semble s'accélérer, comme s'il y avait un apport continu d'énergie dans le système pour combattre et dépasser l'action de la gravité. Einstein en son temps comprit que les forces de gravité engendraient nécessairement un univers hautement dynamique, hors équilibre, pouvant même entraîner un big crunch, ce qui était non conforme à l'idée d'un univers statique et éternel. Il fut le premier à avoir introduit dans les équations du vide une constante cosmologique, équivalent d'une "énergie noire", pour contrecarrer l'action de la gravité et avoir un univers plus stable. Il confesserait plus tard que cela avait été la plus grande erreur de sa vie, faite là aussi au nom d'une croyance en la beauté de l'univers qui se devait d'être éternel !

10 avril 2007

Scientisme et politique

En ce moment, je m'énerve beaucoup en lisant les journaux et en surfant sur le web. Est-ce dû à l'hystérie sondagière ? Toujours est-il que les billets, opinions, débats sur la science se multiplient en ce moment. C'est a priori très positif, sauf que la science est la plupart du temps totalement absente de ces débats, et qu'elle est utilisée soit comme outil rhétorique, soit comme argument d'autorité dans ces joutes oratoires.

Deux exemples récents. Via What's next, je suis tombé de ma chaise devant le graphique ci-contre, reproduisant la répartition idéologique des différents partis politiques suivant deux axes, tiré du site gauche liberale.org. Je suis pourtant plutôt fan d'habitude de ce genre de petit exercice tant qu'ils ne se prennent pas au sérieux. Mais là, ce diagramme n'est manifestement qu'un concentré d'a priori idéologiques.

Par exemple, pourquoi y a-t-il des zones d'exclusion théorique ? Qu'est-ce que cela signifie ? Si on en croit le site, on lit que :


La présence d'une zone d'exclusion théorique tient au fait qu'une société hautement libérale ne peut être "pilotée" ni vers la droite ni vers la gauche. Une société libérale d'extrême droite ou d'extrême gauche est donc par définition impossible.


Moi, quand je vois une zone d'exclusion de ce genre, je pense immédiatement aux diagrammes de Kruskal en relativité générale, à des horizons et des frontières. Bref, je pense "modèle théorique", testable et justifié. Or il n'y a pas de modèles théoriques ici : il n'y a qu'un a priori politique, à savoir qu'une société libérale ne peut être trop à gauche ou à droite. Cette frontière est une vaste fumisterie : comment la déterminer quantitativement ? Quelle est la définition derrière le "par définition" ? Comment détermine-t-on le degré de gauchitude, de droititude, de libéralisme d'une société ? Quel est le sens mathématique ? Le reste du diagramme est à l'avenant : ainsi les partis politiques sont-ils alignés le long d'une jolie courbe, suggérant que les partis français sont plus ou moins tous d'accord entre eux sur le dirigisme étatique. Mais sur la base de quels critères ces partis ont-ils été placés, alignés ainsi ? Comment les surfaces relatives sont-elles déterminées ? De la même façon, le placement du zéro dans un sens ou dans l'autre est un pur a priori idéologique. Des Américains décaleraient toutes les courbes vers la gauche, tandis que des chercheurs staliniens pourraient penser que toutes les courbes devraient être décalées vers le haut (à ce propos je ne connais personne ayant fait ce test n'étant pas dans le cadran en bas à gauche). Le but de ce graphe est uniquement politique : il s'agit de nous expliquer visuellement le manque de variété sur l'axe haut bas, et de nous expliquer que les partis français sont très dirigistes. Le problème c'est qu'il s'agit uniquement des a priori de l'auteur du graphe, qui se donne une apparence de sérieux et d'objectivité en utilisant des représentations scientifiques, mais il n'y a guère de science ici, c'est un pur discours politique. L'opinion est respectable en soi, là n'est pas le problème, ce que je n'aime pas beaucoup est cette habitude de plus en plus répandue de faire de la politique en s'abritant derrière un discours scientifique pour donner l'illusion d'objectivité.

L'autre affaire qui m'énerve est évidemment celle des gènes de la pédophilie. Les experts en génétique pulullent actuellement sur les blogs et autres fora. Des blogueurs commentent, ici ou nous donnent leur avis sur la question :

je dirais qu’il ne me parait pas absurde de penser qu’il puisse y avoir effectivement un terrain plus ou moins favorable à la pédophilie, au suicide, à la dépression.

Des choses totalement fausses qui ne paraissent pas absurdes, l'histoire des sciences en est remplie. Ce qui est vrai pour le cancer ou le suicide, peut être totalement faux pour la pédophilie. Donc débattre là-dessus en tant qu'opinion, déconnectée de la connaissance scientifique, n'a pas de sens. La science n'est pas une philosophie chargée d'équilibrer thèse et antithèse : la science n'est pas une opinion politique qui se suffit par elle-même, le débat scientifique doit être sous-tendu par des faits et n'avance qu'en choisissant et en tranchant. Il y a des théories absurdes et fausses, point barrre, comme celle du gène de la pédophilie ou de la bosse des Maths.
Par ailleurs, et là je parle en tant que citoyen, tout le monde glose sur la prédisposition, mais quasiment personne ne parle sérieusement des facteurs qui révèlent cette prédisposition, alors qu'en tant qu'homme d'action revendiqué, Sarkozy devrait plutôt s'intéresser aux causes environnementales du suicide qui sont les seules sur lesquelles il puisse agir. Moi, c'est surtout ce manque qui m'étonne, ce renoncement au nom d'une théorie génétique fausse. Car quand on regarde l'action politique, force est de constater que ce corpus de théories se traduit effectivement en actions concrètes, comme par exemple le dépistage des jeunes délinquants dès l'âge de trois ans, sans parler des gamins "hyperactifs " drogués aux Etats-Unis. Preuve que ces préjugés se traduisent dans les faits par des actions sociales, au nom de la science, ce qu'il faut à mon avis combattre.

08 avril 2007

Effet Allègre

La campagne électorale échauffe les esprits, et cette semaine a vu se succéder quelques déclarations scientifiques peu inspirées. Effet de mode, le réchauffement climatique semble être un terreau idéal pour ce genre de discours. Ainsi, Eric Le Boucher dans sa chronique du Monde, à propos des climatologues qui ont l'outrecuidance d'affirmer que le réchauffement climatique aurait un impact négatif sur l'économie, nous livre cet argument imparable :

"Pourquoi affirmer avec aplomb que 2 degrés de plus sont mauvais pour le commerce, alors qu'on observe sur le territoire de ces Etats-Unis un déplacement de l'activité vers le Sud et vers le soleil ?"

C'est vrai ça : le soleil, ça attire les retraités et c'est bon pour le tourisme. Et puis de toutes façons, les ouragans, ce n'est jamais que la forme naturelle de la destruction créatrice, et cela stimule le BTP au moment de la reconstruction !

Outre la manifestation d'ignorance relative du dossier du réchauffement climatique dont fait preuve ELB dans cette simple phrase -habitude d'économiste peut-être, il se focalise sur le réchauffement moyen en oubliant la variabilité potentielle énorme du réchauffement et surtout leurs effets locaux- on ne peut que constater que l'utilisation de contre-arguments aussi débiles décrédibilise totalement un discours qui peut par ailleurs être sensé...

07 avril 2007

Inné, acquis et évolution baldwinienne

L'actuelle campagne électorale bruisse en ce moment de débats d'inspiration biologique (voir par exemple cette tribune d'Axel Kahn - pardon Enro !- sur la question), qui remettent sur la table l'éternel débat inné-acquis, et le rôle de l'environnement. L'occasion d'un petit billet sur certains mécanismes derrière la variabilité phénotypique en réponse à l'environnement, et de liens avec l'évolution.

En 1998, Rutherford et Lindquist ont publié une étude fascinante dans Nature d'une protéine appelée "Hsp90". Cette protéine est dite "chaperonne" : elle aide les autres protéines à se replier et à ainsi acquérir leur fonction dans l'organisme. Lorsque Hsp90 est mutée dans une population, différentes mouches exhibent tout d'un coup différents phénotypes plus ou moins sévères : certaines mouches ont des yeux déformés, d'autres des ailes de tailles différentes, d'autres encore des antennes supplémentaires. Bizarre si on suppose qu'à une mutation est associée un seul phénotype ! En fait, Rutherford et Linquist montrent que les mutations de Hsp90 révèlent des variabilités "cachées" dans le génome. Le mécanisme est schématisé dans la figure ci-contre. Dans le panneau A est représentée une mouche normale : le gène a produit une protéine fonctionnelle A, et tout va bien. Le panneau B montre le rôle joué par HSP90 : l'allèle a1 est différent de l'allèle a, et la protéine associée A1 a une fonction différente. Le rôle d'HSP90 est alors de jouer le rôle de "tampon génétique" et de "corriger" la fonction de A1, pour la transformer en protéine fonctionnelle A : elle va par exemple contrôler le repliement de A1 afin de la forcer à aller vers la même fonction que la protéine "normale" A. Du coup, si HSP90 est supprimé (ou si elle a trop de travail par exemple), il ne lui sera plus possible de corriger le repliement et la protéine A1 va être produite, jouant une fonction différente. La variabilité génétique cachée de l'organisme va être ainsi mise en évidence.

On voit donc qu'une mouche portant l'allèle a1 est en général tout à fait normale mais une variation de l'environnement (par exemple de la température) peut révéler la variabilité cachée. L'autre aspect fascinant est que Rutherford et Lindquist se sont ensuite amusées à faire de la sélection entre les mouches ayant le même phénotype une fois HSP90 muté, puis ont réintroduit une HSP90 normal. Surprise : HSP90 est alors cette fois incapable de corriger le phénotype ! Une expérience difficile à interpréter selon moi : cela suggérerait que Hsp90 pourrait agir en plusieurs endroits sur le même processus; en accumulant des mutations dans les protéines de celui-ci, peut-être Hsp90 n'arrive-elle plus à compenser toutes les micro-mutations, d'où la fixation du phénotype.


Evidemement, de tels mécanismes peuvent jouer des rôles capitaux dans l'évolution. Imaginez que pendant un certain nombre de générations, l'environnement modifie le rôle des protéines chaperonnes telles que Hsp90, si bien que les variabilités cachées peuvent être exprimées. Les invididus possédant une adaptation à ce nouvel environnement révélée par le stress vont se reproduire préférentiellement, et le caractère associé pourra alors se trouver fixé et exprimé dans la population, même après un nouveau changement d'environnement. On peut d'ailleurs aussi imaginer que les variabilités ne soient exprimées que de façon stochastique dans l'environnement modifié : la sélection parmi les adaptations va alors ressembler en quelque sorte à un processus d'apprentissage. Ce type de mécanisme d'évolution, où une simple prédisposition chez les individus est au cours du temps sélectionnée pour être fixée génétiquement se rapproche de ce qu'on appelle l'effet Baldwin , qui serait notamment impliqué dans "l'apprentissage" au cours de l'évolution de la tolérance au lactose.

Référence :

Hsp90 as a capacitor for morphological evolution, Suzanne L. Rutherford and Susan Lindquist,Nature 396, 336-342 (26 November 1998)

Résurrection pascale

Hasard du calendrier, trois jours après son décès, Nausicaa est réssucitée ! J'ai plongé dans les entrailles de la bête, identifié et changé la pièce deffectueuse, et c'est reparti !
Espérons maintenant que l'esprit saint me visitera la semaine prochaine ;)

05 avril 2007

RIP Nausicaa (2003-2007)

Mon vieil ordinateur vient de crasher splendidement, en conclusion d'une semaine assez difficile sur le plan professionnel. Comme je suis deja deborde en ce moment (vous avez deja pu remarquer que je parle peu de vraie science ces temps-ci pour y preferer l'exercice plus facile du commentaire scientifico-sondagier), et comme il me faudra aussi rattrapper le retard accumule a cause du crash (j'ai des auditions a passer dans un mois), le blog restera en suspens et/ou en activite reduite jusqu'a nouvel ordre.