jeudi 22 janvier 2009

Médias et manipulation de l'information


Il y a un peu plus d’un mois Guilhem nous parlait de liberté de la presse et de démocratie. Son post soulignait le lien entre presse libre et bon fonctionnement démocratique mais n’entrait pas dans le subtil domaine de la manipulation de l’information. Il faut en effet un certain talent pour manipuler l’information sans pour autant décrédibiliser la source.

Le pouvoir politique a certes intérêt à contrôler l’information mais on perçoit aussi le risque créé par ce contrôle. Si la source perd toute validité, l’information n’aura aucune valeur et l’influence sur les électeurs sera très faible. Sous un régime dictatorial où les élections n’existent pas ou sont facilement biaisées, il importe finalement peu que personne n’accorde de valeur aux informations véhiculées par les médias puisqu’elles n’ont pas d’impact sur la vie politique. A l’inverse dans une démocratie au fonctionnement irréprochable et aux électeurs parfaitement informés, toute manipulation sera inutile car immédiatement mise à jour et pénalisée. Mais qu’en est-il dans le monde réel, le plus souvent situé entre ces deux extrêmes ? Les politiciens devront se révéler moins grossiers dans leur contrôle. Quand la force brute est à éviter, on peut utiliser des moyens plus subtils.

Amos Tversky et Daniel Kahneman, tous deux récompensés par le Prix Nobel d’économie en 2002, ont étudié en profondeur le concept de « framing » ou cadrage, c’est-à-dire la manière dont est présenté un choix à des individus. En économie traditionnelle, les agents rationnels ignorent ce genre de détails et choisissent l’option qui leur apporte le plus de bien-être sans ne porter aucune attention à l’emballage. Kahneman et Tversky ont montré que dans de nombreuses situations le « framing » avait au contraire un effet très important et qu’on pouvait influencer les décisions par le choix des mots, des images, ou parfois même de détails totalement hors de propos. Le marketing se délecte de ces exercices de fine manipulation pour modifier nos perceptions d’objets sinon identiques et nous faire acheter l’un plutôt que l’autre. Le pouvoir politique, par l’intermédiaire des médias officiels, va lui aussi tenter de jouer sur ces biais de perceptions dont nous sommes tous victimes. L’art consiste donc à ne pas mentir mais à cependant présenter les faits de manière à tromper l’électeur. En voici trois exemples assez savoureux.

Au mois de novembre se déroula à Stockholm une conférence intitulée « Russia beyond oil », à laquelle participa l’économiste Konstantin Sonin, de la New Economic School située à Moscou. Sa présentation portait sur les médias en Russie. Il expliqua que le pouvoir russe ne falsifiait pas ouvertement les faits mais usait de moyens beaucoup plus malins visant à communiquer des faits corrects mais à donner une impression différente de la réalité. L’image qui suit, tirée de sa présentation, présente les résultats d’une élection locale en Russie et donne les pourcentages (exacts) obtenus par chaque parti.


Les chiffres n’ont pas été modifiés, l’information est correcte. Cependant si on regarde les barres, a priori censées avoir une hauteur proportionnelle au nombre de voix, on observe un léger décalage. Le vainqueur semble avoir gagné largement, tandis que les trois autres partis semblent avoir reçu un nombre similaire de voix. Mais ceci ne correspond pas du tout aux chiffres. Que va retenir le téléspectateur ? Les chiffres ou le graphique ? Et même s’il lit bien les chiffres, ne sera-t-il pas influencé par le graphique ? Nous sommes en pleine manipulation.

Deuxième exemple : le graph suivant donne la production de Gazprom par année.


Si on regarde les barres verticales, on a l’impression que l’entreprise produit de plus en plus. Cependant les chiffres contredisent clairement cette interprétation. La production est stable. Là encore la manipulation est manifeste mais assez subtile pour passer inaperçue.

Dernier exemple, moins délicat. Le Kremlin ne supporte guère l’oligarque Boris Berezovsky. Le journal anglais le Times a publié un point de vue le critiquant dans ses pages « opinion. La télévision russe a repris l’information en montrant que même le Times, respectueux et sérieux journal anglais, critiquait l’homme d’affaire, et que cette information faisait même la une du journal. L’image ci-dessous montre à gauche la première page, fictive, qui est apparue à la télévision russe, et à droite la véritable première page, parue en Angleterre.


Dans tous ces exemples, la chaîne de télévision pourra se défendre d’avoir falsifié les faits : les pourcentages de voix obtenues sont corrects, les chiffres de la production sont justes, l’article a bien été publié. Mais dans tous les cas, la présentation est tellement biaisée qu’elle vide l’information de son contenu. Comme quoi il vaut toujours mieux remonter à la source de l’information et surtout apprendre à savoir déchiffrer les graphiques et données qui nous sont présentés.

Crédit photo : fliegender
_Emmanuel_

Lire la suite...

lundi 19 janvier 2009

L'art de la relance


Le débat économique chez nos amis américains prend un peu des tournures de gigantesque concours Lépine depuis que le president-elect B. H. Obama a fait appel à toutes les bonnes volontés pour définir son plan de relance budgétaire. Cela a un petit côté démocratie participative qui n’est pas déplaisant. Le NY Times s’est donc lancé dans la bataille, en proposant à un panel d’économistes renommés de donner leurs meilleures recettes : burritos à l’Earned Income Tax Credit et carpaccio d’assurance sociale, tout y passe.

Plus sérieusement, ces contributions, même assez générales dans leur niveau de détail, sont extrêmement intéressantes car elles dévoilent les importantes avancées et les limites de la recherche en économie publique. En effet, une fois que tout le monde s’est bien accordé sur l’idée qu’un stimulus budgétaire (fiscal stimulus en anglais, qui ne veut pas dire que tout passe nécessairement par des réductions d’impôt, attention) était indispensable, et maintenant que les estimations sur son ampleur sont plus ou moins fixées, reste à faire la tambouille. Sur les grands principes de cette tambouille, on notera que tout le monde s’accorde. C’est essentiellement ce qu’Antoine avait déjà bien exposé : il faut que le stimulus soit timely, targeted, & temporary, c’est-à-dire arrive au bon moment (i.e. le plus vite possible désormais !), soit bien ciblé (sur les ménages les plus contraints et ayant la plus forte propension à dépenser dans le très court terme), et temporaire.

Ensuite, et c’est le cœur du sujet, se pose la question des outils : quels sont les moyens de faire passer ce stimulus le plus vite possible, sur les bons ménages, et sans distordre de manière permanente la structure des dépenses publiques.
Or c’est sans doute dans l’analyse précise des effets de toute la mécanique des transferts que l’économie publique empirique a le plus progressé ces 15 dernières années, grâce à la révolution permise conjointement par la mise à disposition de fichiers de données micro sur les bénéficiaires de tous les programmes de transferts, et la croissance exponentielle de la vitesse des processeurs pour traiter et analyser ces fichiers. Une des grandes leçons de ces 15 années de littérature empirique sur les transferts est que la mécanique administrative est déterminante, qu’une même structure de transferts nets peut avoir des effets tout à fait différents selon la gestion pratique de sa mise en œuvre. Comme toujours, le diable est dans le détail. Un exemple classique : l’impôt négatif. Au milieu des années 90, tous les pays se sont rendus compte que la structure de leur système de transferts exhibaient de très forts taux marginaux d’imposition effectifs sur les ménages à bas revenus reprenant un emploi (du fait de la perte des allocations plafonnées ou soumises à condition d’inactivité comme le RMI en France par exemple). Ces forts taux marginaux ayant un effet très désincitatif sur l’offre de travail des ménages pauvres, l’idée est venue, dans tous les pays développés, de lisser la transition vers la reprise du travail par un système de crédit d’impôt. Aux Etats-Unis l’EITC, en Grande-Bretagne le WFTC, en France la Prime pour l’Emploi. Or que nous disent toutes les études d’économie publique empirique sur ces systèmes : que les détails pratiques sont tout à fait décisifs pour l’efficacité de ces crédits d’impôt. Il peut tout aussi bien s’agir de la manière dont l’information sur le fonctionnement de ces systèmes est transmise aux bénéficiaires potentiels (comme le montre ce papier de Chetty et Saez ou celui de Saez sur les incitations à l’épargne-retraite), des restrictions sur la population éligible (les femmes seules ave enfants ayant en général une élasticité de l’offre de travail plus importante que les hommes seuls par exemple), que du mode de versement (comme le démontrent les tragiques limites de la Prime pour l’Emploi versée avec un an de retard du fait du prélèvement différé de l’impôt sur le revenu en France)…In fine donc, l’administratif compte. Et c’est pourquoi la tambouille, le ficelage concret d’un plan de relance, loin d’être une question subalterne, une vague affaire de technos, est cruciale lorsque l’on se prépare à dépenser 500 milliards de dollars.

Et lorsque on opère dans l’urgence, et qu’il est donc difficile de créer des nouveaux outils, les facteurs institutionnels comptent plus que jamais pour définir la meilleure réponse dans le très court terme, tous les pays ne disposant pas du même ensemble de transferts sur lequel jouer. Typiquement, un allègement immédiat de l’Income Tax aux Etats-Unis sera beaucoup plus efficace qu’en France dans la mesure où l’impôt est prélevé à la source : les contribuables américains vont toucher le chèque tout de suite, là où un ménage français ne toucherait la réduction d’impôt qu’en septembre 2010. A contrario, les Etats-Unis ne disposent pas d’un système de TVA comme en France ou en Grande-Bretagne, qui peut être un excellent outil de stimulation dans le court terme.

Autre élément institutionnel important pour la définition d’un plan de relance, qui ressort bien de la discussion sur le site du NY Times, concerne l’étendue du fiscal federalism, c’est-à-dire de la décentralisation des finances publiques. Aux Etats-Unis, la part des dépenses publiques à la charge des Etats par opposition à celle de l’Etat Fédéral est très importante. Or un des effets de la crise financière est d’avoir rendu très difficile le financement par la dette des Etats, là où l’Etat fédéral, lui, jouit d’une sorte d’aura magique, tout le monde s’étant réfugié vers les Treasury Bonds américains qui financent la dette publique fédérale. La conséquence, rappelée par P. Krugman, c’est que là où l’Etat fédéral dépense 500 milliards en plan de relance, la plupart des Etats s’embarquent dans des plans d’austérité qui viennent contrecarrer les effets de la dépense fédérale. Il y a donc aux Etats-Unis des aspects stratégiques très intéressants dans la répartition de la dépense publique qui expliquent qu’une grande partie du plan de relance fédérale doive se concrétiser en subventions aux différents Etats, là où la France elle est beaucoup plus libre de gérer son plan de relance à un niveau très centralisé.

On notera également la place de choix dans la plupart des contributions dédiée au renforcement de l’assurance sociale, assurance chômage et assurance santé. De fait, l’assurance sociale est un énorme stabilisateur automatique dans les pays européens, qui n’est jamais explicitement comptabilisée dans le chiffrage des plans de relance, mais qui fonctionne pourtant comme tel. Aux Etats-Unis la modestie de l’assurance sociale pour de nombreux ménages à bas revenus renforce la spirale récessioniste et explique l’attention particulière dédiée à l’élargissement de la couverture dans la plupart des idées de plan de relance : c’est une dépense utile dans le court terme et dans le long terme.

Pour terminer, on notera bien sûr le bon vieux débat Yankee entre government spending vs tax cuts. Il est intéressant toutefois de voir que les ressorts de cette antienne du débat public US « Plus d’Etat/Moins d’Etat » peuvent offrir des nuances assez subtiles, comme cette vision gentiment Néo-Jacksonienne défendue par des économistes comme Glaeser par exemple.
_Camille_

Lire la suite...

mercredi 14 janvier 2009

Esther Duflo en live



Pour ceux qui n'ont pas eu de places pour suivre les leçons d'Esther Duflo au Collège de France, il est possible de regarder la vidéo et d'obtenir la description de l'ensemble des leçons avec leur bibliographie sur le site du Collège de France. Comme quoi on peut dater de 1530 et être à la page...
_Antoine_

Lire la suite...

samedi 10 janvier 2009

La révolution des « randomistas »


Esther Duflo vient d’inaugurer sa leçon au Collège de France et elle a les honneurs mérités de The Economist, du Monde et bien sûr d’Ecopublix. C’est l’occasion de revenir sur une controverse qui anime le petit monde des économistes du développement, avec à son cœur l’approche empirique défendue par notre petite Française. On n’y parle pas des milliards de dollars des banques, mais de la meilleure façon d’améliorer l’aide en faveur des milliards de personnes qui vivent avec quelques dollars par jour. Le débat se concentre sur la pertinence des « expériences contrôlées » pour accroître l’efficacité des politiques d’aide au développement initiées par les organismes tels que la Banque Mondiale ou les ONG. Alors que l’expérimentation est devenue une méthode de référence en économie empirique, des voix s’élèvent pour mettre en garde contre les espoirs que ce type de méthodes suscite. Qu’en penser ?

I. La révolution des expériences contrôlées

Pour comprendre l’enthousiasme récent des économistes pour les expériences contrôlées, il est nécessaire de faire un (rapide) survol des méthodes utilisées par les économistes dans le passé. Dans les années 1980, la méthode reine est la régression en coupe internationale : on rassemble des données sur 100 pays et on regarde les corrélations entre différentes variables. Par exemple, on constate que le montant de l’aide au développement est négativement associé à la croissance du pays. Il est alors évident que l’on ne peut en tirer aucune conclusion en termes de causalité : l’aide au développement cause–t-elle une faible croissance, ou l’inverse ?

James Heckman, prix Nobel d’économie et grand monsieur de l’économétrie, a inventé (après d’autres) une solution statistique au problème : il suffit de trouver un « instrument », c’est-à-dire une variable qui permette d’expliquer le niveau de l’aide versée mais qui soit indépendante de la croissance. L’instrument ainsi trouvé permettra d’approcher l’effet causal de l’aide sur la croissance : il s’agit de la méthode des variables instrumentales.

Cette méthode a été reprise puis adaptée aux cas des « expériences naturelles ». Celles-ci reposent sur l’idée que si l’on peut identifier deux groupes identiques et si l’un de ces groupes bénéficie de – ou subit – un « traitement » (une politique, un choc économique), il est possible de tirer des conclusions sur l’effet net moyen de ce « traitement » sur différentes variables (le revenu, la probabilité d’emploi, la santé, etc.). Si les conditions sont réalisées on pourra alors parler de causalité.

Toute une école d’économistes s’est lancée dans ces nouvelles méthodes, en particulier à Harvard et au MIT (Orley Ashenfelter, Josh Angrist ou plus récemment Steven Levitt sont des exemples parmi beaucoup d’autres). Les expériences naturelles ont fleuri et avec elles de multiples techniques (double différence, matching, regression dicscontinuity, etc). Avec la prolifération de ce type d’études, la qualité des travaux s’est néanmoins détériorée. Les multiples vérifications, pour s’assurer que les groupes de contrôle et groupes tests ne sont pas touchés par la réforme étudiée, étaient plus rarement mises en pratique. Le stock de « bonnes expériences naturelles » ou de « bons instruments » est vite apparu comme limité. Quelques chercheurs, particulièrement conscients des difficultés qu’il y avait à réaliser ces bonnes expériences naturelles, ne souhaitaient pas en rester là. Si les expériences naturelles étaient rares, ne fallait-il pas créer ce que la « nature » n’avait pas produit et passer à l’expérimentation « contrôlée » ?

L’expérimentation en économie s’est développée dans deux domaines en particulier : l’évaluation des politiques publiques et l’économie du développement. Dans les deux cas, l’évaluation avait pour objectif d’optimiser l’utilisation de ressources rares (l’argent des contribuables ou l’aide au développement) afin de maximiser l’efficacité pour les bénéficiaires.

En économie du développement, les chercheurs qui ont le plus œuvré dans cette direction sont deux brillants économistes du MIT, Esther Duflo et Abhijit  Banerjee. Ils ont créé une fondation « Abdul Latif Jameel Poverty Action Lab » dédiée entièrement au financement d’expérimentation de différentes politiques d’aide aux pays en voie de développement. L’objectif était de sortir des contraintes des expériences naturelles (où l’on est dépendant de l’expérience que l’on trouve) afin de se concentrer sur les questions pour lesquelles on cherchait des réponses. Le choix de l’expérimentation repose sur l’avantage considérable du tirage aléatoire (randomization) pour mesurer les effets d’une politique (ou d’une aide spécifique). Les résultats sont précis et robustes. De multiples études ont été réalisées qui nous ont appris beaucoup sur la façon de bien conduire de l’aide au développement (voir cet article récent qui liste les résultats surprenants d’expérimentations récentes). De plus en plus d’ONG calquent leur pratique sur les enseignements de ces études et travaillent avec des chercheurs pour améliorer l’efficacité de leurs actions. A l’opposé de la caricature d’économistes loin de la réalité en train de manipuler de grandes théories, ces chercheurs ouvrent la boite noire de la production des politiques publiques. Par exemple comment améliorer l’éducation dans les pays en voie de développement ? Faut-il embaucher plus de professeurs, payer des livres, subventionner les cantines scolaires ou vérifier la présence des professeurs. Banerjee et Duflo expliquent que les expérimentations ont pu mettre en lumière  l’efficacité sensiblement différente des politiques pour obtenir le même niveau d’éducation. L’enthousiasme, légitime, de ces jeunes chercheurs les a amené à considérer l’expérimentation comme l’idéal méthodologique (le « gold standard ») de l’économie empirique mais aussi comme l’espoir d’un renouveau de l’engagement citoyen et la promesse d’un monde meilleur...

II. Les critiques des sceptiques

Ces nouvelles méthodes n’ont pourtant pas convaincu tout le monde. Elles suscitent même de sérieuses controverses parmi les économistes (relatées en partie par The Economist). Récemment, à l’occasion de la publication d’un livre au MIT Press par Abhijit  Banerjee, Making Aid Work, puis d’une conférence organisée par le Brookings Institute, le très respecté Angus Deaton (Princeton) et le non moins écouté Dani Rodrik (Harvard) ont chacun fait part de leurs inquiétudes devant le développement de ces méthodes (ou les attentes que l’on peut en avoir). Deaton raille ainsi ces « randomistas » qui ont développé une passion pour les expérimentations et dénonce les expérimentations comme la dernière lubie à la mode. Deux types de critique sont mises en avant.

1. L’éthique en question

Le premier problème de l’expérimentation est un problème éthique. L’identification d’un groupe de contrôle et d’un groupe test suppose que l’on choisit consciemment de ne pas « traiter » tout le monde. Comme le « traitement » est généralement une politique ou de l’aide que l’on juge a priori bénéfique, il est difficile de ne pas voir une injustice à ne pas offrir cette aide à tout le monde. L’argument des chercheurs a été de pointer le fait qu’on ne connaît pas l’efficacité des différentes aides possibles. Les ressources étant rares, chaque ONG est finalement contrainte à faire un choix d’un pays et même d’une petite région où opérer. En testant les différentes aides possibles par expérimentation, les ONG peuvent non seulement lever plus de ressources mais également privilégier les méthodes les plus efficaces, aidant ainsi un nombre bien plus large d’individus.

Mais cette justification apparaît parfois difficile à tenir. Si personne ne réagit fortement lorsque l’on évalue l’aide à l’éducation en comparant l’achat de livres par rapport à l’achat de l’uniforme ou l’effet de la présence des enseignants, lorsqu’on parle de l’effet de traitement médicaux sur les performances scolaires, de légitimes questions doivent être posées. Edward Miguel et Michael Kremer ont ainsi étudié l’effet d’un traitement contre les vers intestinaux sur l’absentéisme à l’école afin de mesurer les effets d’externalité des politiques de santé sur l’accumulation de capital humain. Cet article, qui est par ailleurs un article « phare » de cette école de recherche, a causé des discussions animées sur la justification éthique de telles recherches. Le processus expérimental a consisté à tirer au hasard des enfants kenyans en administrant à seulement la moitié d’entre eux le traitement contre les vers pour mesurer l’effet du traitement sur les performances scolaires (on connaît l’efficacité directe du traitement en terme de santé et le coût du traitement est très faible). Les chercheurs pointent que cette étude a permis de mettre en évidence qu’un traitement qui coûte 30 centimes permet d’obtenir un supplément d’éducation aussi tangible que de couteuses politiques à plus de 6000 $. Au lieu de financer des livres pour chaque enfant, il est possible – pour le même coût – d’être vingt mille fois plus efficace en offrant un traitement contre les vers à tous les enfants africains.

Le résultat de cette étude valait-il le coût éthique de cette expérimentation ? Est-il mieux de pouvoir mesurer cette externalité ou faut-il savoir limiter les champs d’expérimentation ? En d’autres termes, la fin justifie-t-elle les moyens ? Même si l’objectif final est d’aider ces populations, on ne peut s’empêcher de penser que s’il est plus facile de réaliser ces expériences dans les pays en voie de développement c’est aussi parce que dans les pays développés, les citoyens ont leur mot à dire sur l’opportunité de ces études…

2. Les limites méthodologiques

Plus que le problème éthique, ce qui semble le plus agacer les sceptiques, ce sont les prétentions de supériorité méthodologique.

James Heckman rappelle que la validité des expérimentations n’est que conditionnelle. Les résultats ne sont valables que dans le contexte de l’expérimentation (dans le pays, sur l’échantillon traité, selon les conditions macroéconomiques, etc.) . Ainsi, si une expérience met en évidence que l’aide aux chômeurs en Suède pendant une forte période de croissance est positive sur le retour à l’emploi, cela ne permet pas d’en déduire l’effet d’une politique similaire en France pendant une période de récession. Selon les mots de Deaton, le risque est d’amasser des faits et non de la connaissance. Les défenseurs des expérimentations lui rétorque que c’est une raison supplémentaire de faire plus d’expériences et non moins !

Les sceptiques répliquent alors que la multiplication des expérimentations de résout pas le fait qu’elles ne mesurent pas tous les effets. Ainsi, une politique peut être efficace à dose homéopathique (lorsqu’elle n’a pas d’impact sur les coûts ou les marchés du travail) mais peut se révéler complètement inefficace une fois qu’on prend en compte ses impacts macroéconomiques. C’est pourquoi Deaton raille les espoirs mis dans les expérimentations car, selon lui, elles ne peuvent qu’évaluer des petites politiques mais deviennent obsolètes dès que l’aide versée est suffisamment importante pour faire une différence.

L’autre point du débat est l’opposition entre vision micro et macro. Si les méthodes empiriques des macroéconomistes ont été discréditées au profit d’analyses micro plus rigoureuses et plus ciblées, les analyses globales (institutions, ouverture commerciale, etc.) n’en restent pas moins pertinentes pour expliquer le développement économique. Comme Deaton et Rodrik le soulignent, les pays qui se sont développés récemment (et ont sorti de la pauvreté des millions d’individus) ne l’ont pas fait en s’appuyant sur une aide extérieure et encore moins sur des politiques de développement expérimentées au préalable, mais en s’ouvrant au commerce, en garantissant les droits de propriété et en luttant contre la corruption.

Au final, doit-on reprocher à l’expérimentation d’apporter des informations très précises certes mais sur des points somme toute négligeables ?

III. Qu’en conclure?

Ce débat peut laisser songeur. Lorsque l’on compare la défense des expérimentations par Duflo et Banerjee et les critiques qui leur sont faites, on ne peut s’empêcher de penser que tout le monde s’accorde en fait sur deux points essentiels : les expérimentations sont extrêmement utiles et correspondent à un progrès substantiel par rapport aux analyses passées. Mais ce n’est pas la fin de l’histoire pour autant et d’autres méthodes, avec une meilleure compréhension des mécanismes, devront être développées. Une des voies d’avenir serait de parvenir à modéliser les comportements économiques en testant les hypothèses lors d’expériences : si le modèle est robuste à ces tests, il peut être utilisé pour juger d’autres politiques, hors du contexte de l’expérimentation ou pour évaluer des politiques qui ne peuvent pas être soumises à l’expérimentation.

L’opposition micro/macro est aussi stérile. Certes, les grands mouvements macroéconomiques (croissance, commerce) sont probablement plus importants pour la réduction de la pauvreté dans les pays pauvres, mais en rester à un niveau d’analyse macro n’a souvent aucun intérêt pratique : savoir si l’aide en soi est bonne ou pas pour la croissance n’est pas forcément la bonne question à poser au vu de l’hétérogénéité de l’aide possible. Essayer de comprendre quel type d’aide est efficace, ou est contreproductif, est probablement plus important. Pour ce faire, une combinaison d’expérimentations et de modélisation d’effets macroéconomiques sera déterminante.

Il est enfin difficile de reprocher aux partisans des expérimentations le souhait de voir ajouter au mur de la connaissance économique des petites mais solides pierres, quand on compte le nombre de grandes théories qui n’ont pas survécu à leur auteur. La modestie de ces approches est au contraire tout à l’honneur des chercheurs qui les poursuivent. Ceux qui en viennent à professer que les expérimentations sont la seule voie pour sauver le monde n’en ont simplement pas compris la philosophie.

_Antoine_

Lire la suite...