À quoi bon échanger ? Avantages comparatifs & coûts d’opportunité – Argument frappant #5

Aujourd’hui on parle d’un des arguments les plus frappants de l’histoire de la pensée économique : la théorie des avantages comparatifs. Mais comme je ne veux pas vraiment vous faire un cours d’économie, je ne vais pas la jouer à la Ricardo en parlant de commerce de draps et de vins entre le Portugal et l’Angleterre, mais plus simplement d’échanges entre individus, et au fond c’est tout aussi intéressant et ça me paraît même plus frappant encore à ce niveau ! Notez que je ne présente pas ces concepts d’avantages comparatif et de coût d’opportunité de façon rigoureuse mais j’espère que ça vous donnera envie d’aller voir plus loin car l’économie, tout de même, c’est passionnant !

 

Pour aller plus loin, justement :

Une vidéo en français qui présente la théorie des avantages comparatifs à partir de l’exemple classique de Ricardo : « Dessine-moi l’éco : Qu’est-ce que l’avantage comparatif ? »

Une vidéo d’introduction sur l’économie où il est question, entre autre, des avantages comparatifs (en anglais, sous-titres français disponibles) : « Specialization and Trade: Crash Course Economics #2 »

Une vidéo sur les avantages comparatifs et les coûts d’opportunité (en anglais, sous-titres français disponibles) : « Comparative Advantage » (Marginal Revolution University)

 

Allez voir les super chaînes francophone de vulgarisation sur l’économie :

Stupid Economics pour plein de sujets cools traités de façon cool sur l’économie en général !

Heu?reka sur l’économie en général et la finance en particulier, avec des explications souvent assez détaillée !

Voilà !

 

 

Le paradoxe du condamné à mort — Argument frappant #4

Première partie – Présentation

 

Les vidéos d’e-penser sur le paradoxe :
(1) L’énoncé du problème : https://youtu.be/-cp7e9OK-28
(2) La solution proposée : https://youtu.be/Gjx32XYp2j4

Une autre variante, juste pour le plaisir. Vous savez que les règles de politesse vous interdisent de manger le dernier petit four du plateau. Mais ne vous êtes-vous jamais dit que celui qui mange l’AVANT-DERNIER petit four était presque aussi impoli en ceci qu’il mange le dernier petit four que l’on peut manger sans impolitesse ? En un sens, si tout le monde est poli, l’avant-dernier petit four devient virtuellement le dernier petit four. Mais que se passerait-il si l’on ajoutait la règle de politesse suivante : « Il est interdit de manger le dernier petit four que les règles de politesse permettent de manger » ? Je vous laisse le soin de prouver à partir de cette règle qu’il n’est permis de manger AUCUN petit four…

Si vous voulez en lire davantage sur le sujet, l’article wikipedia anglais est très bien (son équivalent français l’est moins) et l’on y trouve une bibliographie commentée : « https://en.wikipedia.org/wiki/Unexpected_hanging_paradox »

 

 

Deuxième partie – Analyse

 

Une précision concernant la remarque à 0:44. « Ex falso sequitur quodlibet » signifie : « Du faux, on peut déduire ce que l’on veut ». Ainsi, d’une contradiction (toujours fausse) on peut déduire n’importe quoi. C’est ce qu’on appelle aussi le principe d’explosion (et il est valide dans les systèmes de logique classique). Ainsi, mes règles du jeu étant contradictoire, ce n’est pas vrai à strictement parler que je ne peux rien en déduire : je peux en déduire que la carte est un joker, mais aussi qu’elle n’en est pas un, et que 2 + 2 = 5 ; je peux TOUT en déduire. Donc évidemment il faudrait préciser le sens de « déduire » dans nos règles de façon à exclure ce genre de déduction bizarre. (On pourrait dire qu’on parle de déduction « pertinente », c’est-à-dire qui ne ferait en aucune façon usage d’un tel principe d’explosion.)

 

 

La loi de Bayes — Argument frappant #3

Premier épisode

 

Pour en savoir plus sur la loi de Bayes, il y a énormément de ressources sur Internet et ça peut être difficile de s’y retrouver, donc en voici deux que je trouve particulièrement bonnes et accessibles :

– En anglais, ce site est très bien et complet : https://arbital.com/p/bayes_rule/?l=1zq
– En français, il y a ces très bons articles du blog de Science étonnante de David Louapre : https://sciencetonnante.wordpress.com/2012/10/08/les-probabilites-conditionnelles-bayes-level-1/

 

Second épisode

 

Quelques explications supplémentaires concernant la formule présentée à la fin de la vidéo pour calculer rapidement une approximation de P(A|B) (probabilité de A sachant B) dans le cas où B est une preuve de A, et où la probabilité a priori de A est faible et nettement plus faible que la probabilité de faux positif. Dans ce cas-là, on a P(A|B) à peu près égal à P(A)/P(B|-A) (c’est-à-dire la probabilité a priori de A divisée par la probabilité de faux positif. Notez que « -A » signifie que A ne se réalise pas, ce qu’on écrit normalement avec un trait au-dessus de A. Désolé, ce n’est pas très pratique d’écrire des formules ici…)

Partons de la formulation complète du théorème de Bayes : P(A|B) = P(B|A)P(A)/P(B)

B se présente comme une preuve de A. Cela signifie que P(B|A) (probabilité de B sachant A) doit être très élevée, c’est-à-dire presque égale à 1 (sinon on verrait mal en quoi B est une preuve de A). Donc, si P(B|A) est à peu près égale à 1, ça signifie que P(B|A)P(A) est presque égal à P(A). Cela permet d’avoir déjà l’approximation suivante : P(A|B) est à peu près égal à P(A)/P(B). C’est déjà plus simple…

Mais comment connaître P(B) ? En fait, on ne connaît jamais directement P(B) ; il faut le calculer de la façon suivante : P(B) = P(B|A)P(A) + P(B|-A)P(-A).

Là encore, étant donné que P(B|A) est presque égal à 1, du coup P(B|A)P(A) est à peu près égal à P(A), et donc P(B) est à peu près égal à P(A) + P(B|-A)P(-A).

Maintenant, supposons que P(A) est faible et beaucoup plus faible que P(B|-A). Cela aura pour conséquence que P(A) + P(B|-A)P(-A) est à peu près égal à P(B|-A). (J’avoue que j’ai un peu la flemme d’expliquer en détail pourquoi mais ceux qui ont suivi le raisonnement jusque là ne devraient pas avoir trop de mal à voir. En gros, P(A) va être négligeable par rapport à P(B|-A)P(-A), et P(B|-A)P(-A) sera à peu près égal à P(B|-A).)

Du coup, en effet, sous l’hypothèse que P(B|A) est presque égal à 1 (ce qui est sous-entendu par l’idée que B est une preuve de A) et sous l’hypothèse que P(A) est faible et nettement plus faible que P(B|-A), alors P(A|B) est à peu près égal à P(A)/P(B|-A), c’est-à-dire que la probabilité de A sachant B est à peu près égale à la probabilité a priori de A divisée par la probabilité de faux positif (entendue comme la probabilité que B soit tout de même vrai au cas où A est faux).

Si par exemple vous estimez a priori que A a 1% de chance de se produire et qu’on vous apporte une information B censée prouver A, et que cette information est telle que vous estimez que si A est faux il y a encore 20% de chance pour que B soit vraie (donc probabilité de faux positif = 20%), alors vous pouvez estimez que la probabilité de A sachant cette nouvelle information B est à peu près égale à 1% divisé par 20%, c’est-à-dire multiplié par 5, soit 5%, ce qui reste très peu… (Et notez que l’estimation a généralement tendance à être trop haute.)

Voilà voilà… Avec cette petite méthode en tête, vous éviterez de tomber dans beaucoup de pièges bayesiens !

Le droit à l’avortement : l’argument du violoniste de Judith Jarvis Thomson — Argument frappant #2

 

Aujourd’hui on voit pourquoi le droit à l’avortement est un sujet complexe…

« A defense of abortion » de Judith Jarvis Thomson : http://spot.colorado.edu/~heathwoo/Phil160,Fall02/thomson.htm
Une traduction française : http://www.cairn.info/revue-raisons-politiques-2003-4-page-3.htm

Pour aller plus loin sur le sujet, ce livre de David Boonin est très complet : https://ethicslab.georgetown.edu/phil553/wordpress/wp-content/uploads/2015/01/David-Boonin-A-Defense-of-Abortion.pdf

L’argument de la simulation de Nick Bostrom — Argument frappant #1

On parle d’un argument frappant de Nick Bostrom qui montre que la probabilité que nous soyons des simulations serait plutôt élevée, en fait…

 

En somme, on peut reformuler l’argument de la façon suivante. Considérez les deux thèses suivantes :

(1) La maturité technologique ne peut pas être atteinte.
(2) La maturité technologique peut être atteinte mais aucune civilisation l’ayant atteinte ne s’en sert pour créer des simulations de conscience en grand nombre.

L’argument de la simulation de Nick Bostrom consiste uniquement à prouver que si (1) et (2) sont faux, alors il en suit :

(3) Il est quasi certain que nous soyons des simulations informatiques.

Concernant la distribution égales des probabilités, j’aurais dû être plus précis dans la façon de présenter les choses, mais l’idée est la suivante. Il faut se poser ces questions : étant données les informations dont on dispose aujourd’hui, quelle probabilité assignes-tu au scénario 1, et quelle probabilité assignes-tu au scénario 2 ? (Je parle de probabilité épistémiques, je précise, non de probabilité réelles – cf. le grain de philo sur la liberté pour éclaircir ce point.)

Il paraît difficile d’attribuer des probabilités extrêmement hautes (par exemple dont la somme dépasse les 99,9%). Même si l’on peut pencher plus fortement en faveur de 1, penche-t-on au point de le considérer comme certain à plus de 99,9% ? Je ne pense pas ; il me semble que les meilleures informations dont on dispose aujourd’hui ne nous permettent de donner aux scénarios 1 et 2 qu’une certaine probabilité dont la somme est loin d’être égale à 100% ; et l’argument de Bostrom consiste à dire que la probabilité que vous devez donner au scénario 3 (scénario de la simulation) est égal à la probabilité que les scénarios 1 et 2 ne se réalisent pas ; donc c’est une probabilité bien supérieure à 0% ; et ça, c’est étonnant.

Pour le dire autrement, d’après ce que nous savons aujourd’hui, nous devons attribuer aux 3 scénarios des probabilités qui sont loin d’être nulles. Par défaut et pour aller un peu vite, on pourrait distribuer également les probabilités sur les trois scénarios, mais c’est simplement pour donner un ordre de grandeur et non pour donner une valeur exacte. De fait Bostrom estimait la probabilité du scénario 3 autour de 20% (il disait plus précisément qu’il lui semblait irrationnel d’estimer cette probabilité inférieure à 20%).

Pour aller plus loin, voilà le site qui présente tout ce qu’il y a a savoir de l’argument de la simulation :
http://www.simulation-argument.com/