7 expériences de pensée avec Science4All | Serez-vous utilitariste jusqu’au bout ? Argument frappant #6

 

La vidéo de Lê à laquelle je participe : c’est par ici !

Toutes ces expériences de pensées sont dérivées du fameux dilemme du tramway décrit pour la première fois par Philippa Foot en 1967 et qui a inspiré des dizaines de variantes et des centaines d’articles ! (Je me suis plus particulièrement inspiré de la variante « du chirurgien » introduite par Judith Jarvis Thomson, la même à qui l’on doit l’argument du violoniste.) Les discussions sur ces dilemmes et leurs subtiles variations sont complexes et passionnantes, et j’en parlerai sans doute lorsque je ferai une suite à cet épisode.

 

Voici justement la suite !

 

Et voici le nouveau questionnaire amélioré ! (L’ancien questionnaire est ici, pour ceux qui veulent consulter les résultats.)

 

Enjoy !

 

Petite remarque supplémentaire : il serait intéressant déjà d’ajouter l’idée de consentement. Disons que vous savez que le patient 0 de se sacrifier. (Par exemple parce qu’il est membre de l’AEVACSVBAFPD, l’Association des Égoïstes qui ne Veulent en Aucun Cas Sacrifier leur Vie pour le Bien d’Autrui, Faut Pas Déconner. Ou parce que vous pouvez le lire dans son cerveau. Peu importe la raison : l’important c’est que maintenant vous êtes certain qu’il ne consent pas au sacrifice que vous allez le forcer à faire.)

Cela change-t-il les choses dans vos réponses ?

Je préfère imaginer des situations où vous n’avez aucun moyen de savoir si le patient 0 consent ou non à ce qu’on lui fait, sans quoi j’ai l’impression que cela permet assez facilement d’éviter de porter un jugement moral sur la situation, de vous « laver les mains ». Vous serez tenté de vous dire assez vite : « Ce n’est pas à moi de prendre la décision, c’est au patient 0 ; il refuse de se sacrifier, donc c’est lui, pas moi, qui condamne les patients 1 à 5. » C’est confortable.

Ceci dit, choisir de tenir compte du non-consentement du patient 0 est un choix moral en lui-même ; on ne le fera pas systématiquement ; en particulier, je pense que peu d’entre vous le feraient pour les premières versions du scénario…

 

 

Pour finir (provisoirement), voici quelques extraits de notre podcast Axiome où Lê et moi revenons sur ces expériences de pensée :

 

 

Voilà !

 

 

33 réflexions au sujet de « 7 expériences de pensée avec Science4All | Serez-vous utilitariste jusqu’au bout ? Argument frappant #6 »

  1. Sans information sur les patients, je ne peux faire de choix raisonné donc raisonnable.
    A partir du moment où le ne considère pas certaines infos sur les patients, pour moi, il y a un biais cognitif. Je pense qu’il ne peut pas ressortir d’avis définitif pour chacun des cas.
    En ajoutant des présupposés sur le statut des patients, l’expérience de pensée devient toute autre.
    Exemple :
    – le patient 0 est un grand chercheur en médecine, si on le sauve, on pourra à l’avenir sauver des millions de vies
    – le patient 0 est un tueur en série que milite pour le « pain au chocolat » au lieu de « chocolatine » et qui, s’il n’est pas sauvé, ne nous révélera pas où sont cachés la dizaine d’enfants qu’il a kidnappés
    – le patient 0 est une personne sans histoire, mais dans les 5 autres patients, 1 seul n’est pas un meurtrier et a le même profil que le patient 0
    Bref, on ne peut pas définir une idée morale générale sans prendre en compte l’environnement. Donc dans ce cas, je reste à l’option 0 : je ne fais rien et tout le monde meurt. (troll ou pas)

    D’ailleurs, comment réagit un utilitariste à l’évolution de nos civilisations. De notre côtés, en tant qu’habitants de pays développés, nous sommes en infériorité numérique par rapport aux personnes qui souffrent de la pauvreté. Or c’est cette exploitation de l’Homme par l’Homme qui a permis à une petite partie de la population d’évoluer (technologiquement) plus vite que le reste du monde. Ces évolutions (technologiques toujours) sont au fur et à mesure délivrées au reste du monde afin de faire disparaître ces (intolérables) inégalités. Aurait-il été plus moral d’évoluer plus lentement et d’envoyer le 1er homme sur la Lune en 11969 ou vraiment en 1969 ? Pour faire le parallèle avec cette expérience de pensée, nous (pays développés) avons préféré sauver le patient 0 plutôt que les 5 autres.

    J’ai une expérience de pensée assez similaire à laquelle je ne trouve pas de réponse. Si ça vous dit d’en discuter…
    La NASA nous apprend qu’un astéroïde va venir s’écraser sur Terre et que nous n’avons pas les moyens de le détruire. Or, à l’impact, il détruira tout ce qui vit sur Terre. Nous n’avons que très peu de temps pour construire des vaisseaux spatiaux afin d’envoyer le plus de monde dans l’espace (on oublie les animaux…), les places sont donc limitées.
    Comment donc choisir ceux que l’on sauvera de ceux qui attendront une mort certaine ?
    – on fait payer les places => les plus riches d’abords (pas sûr que l’humanité s’en sorte finalement lol #Trump)
    – tirage au sort (risque d’emmener des criminels, des personnes avec une espérence de vie courte, …)
    – utilitariste : sélection en fonction de capacités physiques, intellectuelles, … (attention au point Godwin !!)
    – un mélange des 2 dernières options
    – … ?

    J'aime

  2. L’expérience qui commence à 10:00 (le patient 0 a déjà passé 364 jours en traitement et sera sauvé demain), et ses variantes, utilise le sophisme du coût perdu (_sunken cost fallacy_). Ce n’est pas parce qu’on a investi , ici 364 jours de traitement, que l’on doit changer de décision: « ce qui est fait est fait ». C’est un des biais cognitifs les plus puissants de tous, mais ça reste un biais, et un sophisme 🙂 Du coup ce n’est pas vraiment une question d’utilitarisme/conséquentialisme (ou pas).

    J'aime

  3. On peut expliquer la différence d’attitude de Lê entre les cas 1 à 5 (1 vie sacrifiée pour 5 vies sauvées) et les cas 6 à 7 (une vie maintenue pour 5 vies sacrifiées) en considérant que la vie n’est pas le seul critère « utile » qu’il a utilisé dans ce problème. En effet il a pris en compte, consciemment ou non, le critère de viabilité (en l’espèce, la possibilité pour un patient de se maintenir en vie sur du long terme sans soins extérieurs) dans son système de choix.

    On peut formaliser cette hypothèse de la façon suivante :

    – Dans les cas 1 à 5

    Les six patients sont en vie mais pas viable (ils mourront rapidement en l’absence de soins).
    Soit VIE le critère de vie et soit VIA le critère de viabilité et soit P un patient.
    P0,1,2,3,4,5 = VIE + VIA.
    Ici le choix est facile car chaque patient est identique : P0 = P1 = P2 = P3 = P4 = P5.
    Il est donc facile de déduire que P1 + P2 + P3 + P4 + P5 > P0.
    Le patient 0 sera donc sacrifié pour sauver les patients 1,2,3,4,5.

    – Dans les cas 6 à 7

    Le patient 0 est vivant et viable alors que les patients 1,2,3,4,5 sont vivants mais pas viables.
    P0 = VIE + VIA et P1,2,3,4,5 = VIE.
    Or Lê préfère préserver la vie du patient 0 quitte à voir mourir les patients 1,2,3,4,5.
    Soit P0(VIE+VIA) > P1,2,3,4,5(VIE).
    Il choisit donc de ne pas sacrifier un patient vivant et viable contre cinq patients en vie mais pas viable.

    Lê s’est donc servis dans son modèle non seulement du critère de viabilité et lui a en plus conféré une utilité supérieure à plusieurs vies sans viabilité.

    J'aime

  4. Variante 8 :
    Tenir une liste de donneurs potentiels et des lors qu’il est possible de récupérer sur un donneur plusieurs organes qui permettent de sauver au moins 2 personnes, alors il faut récupérer lesdits organes…
    Mais dans ce cas, il s’agit du concept d’exploitation de l’homme par l’homme poussée à son paroxysme !

    J'aime

  5. Sympa, je viens de découvrir la chaine YT, et ce blog donc.
    Des sujets intéressants sont traités. (Peut être parce que la philosophie est intéressante ? :p )

    Sinon, pour répondre au sujet, je suis bloqué au niveau 5.
    Au premier visionnage de la vidéo, j’étais bloqué à la variante 6. Mais après y avoir réfléchis plus profondément, je bloque au 5…

    En fait, ça pose des problèmes phi tout aussi vastes (lol, sans rire Einstein ?!) si l’on accepte les conséquences d’une prise de décision utilitariste.

    Quand j’étais bloqué au niveau 6, pour moi c’était pareil que le niveau 7. En gros même artificiels, ses organes sont ses organes. une fois transplantés, ils lui appartiennent.
    Peut importe qu’ils soient naturels ou non. Sa vie n’a pas moins d’importance parce qu’il est à moitié « robotique ».
    Je ne me réfère qu’à sa conscience et ses sentiments, son essence, son âme. Je ne sais pas trop si les termes sont appropriés, et sûrement qu’un philosophe me reprendra, mais l’idée est là j’espère.
    Ce qui veux également dire qu’un robot complet mais avec un même niveau de complexité qu’un humain et qui en émulerait parfaitement le fonctionnement, aurait pour moi autant de valeur sur le plan individuel qu’un humain « normal » (blanc… lol).

    Mais bref, à ce moment là, j’essayais inconsciemment de me décharger de la responsabilité de la prise de décision.
    En demandant l’avis du patient notamment. Mais en faisant ça, je lui laisse un poids énorme sur les épaules. Même s’il décide de vivre il aura toute sa vie de la culpabilité, et je ne peux décemment pas laisser ça se produire en tant que médecin.

    Aussi je me disais que c’était une situation inextricable, et qu’en l’occurrence ce n’était ni de ma faute, ni celle du patient 0, si l’hôpital était à court d’organe justement ce jour, où 5 nouveaux patient arrivent. Et ce n’est donc pas à moi, ni au patient 0 d’en faire les frais.
    Mais cela ne change rien à la situation ni à la question. Est-ce que le groupe vaut mieux que l’individu quelle que soit la situation ?
    Aujourd’hui ça tombe comme ça, c’est triste, mais je suis obligé de m’adapter et d’y répondre d’une manière ou d’une autre.
    Car j’ai bel et bien la possibilité de sauver 5 patients, mais cela aura un prix.

    Et après y avoir réfléchis comme ça, et une fois que j’avais mis en évidence le fait que les machines devenaient partie intégrante du patient 0 je recule à la variante 5.

    La 4, j’arrive malgré tout à prendre la décision, car le patient ne s’est pas encore réveillé.
    Et les choses se passent relativement vite.
    Je n’arrive pas à mettre le doigt sur pourquoi cela facilite ma prise de décision.
    Je suppose que la privation d’un potentiel réveil est minimisé par le fait que ça ne soit pas encore réellement arrivé…
    Et ça me sert de point d’appuis pour m’aider à justifier le fait de préférer sauver les 5 autres.
    Mais une fois le réveil effectif et vérifié pendant 1 an, je n’arrive plus à prendre cette décision, et je suis bloqué.

    Je n’arrive pas à déterminer ce qui serait le moins amoral. Voler les organes de quelqu’un pour sauver 5 personnes ?
    Ou simplement considérer que l’aléa de la vie à fait les choses ainsi et que je n’ai pas à priver quelqu’un pour sauver les autre ?
    Ça revient un peut à me décharger de la responsabilité : « c’est le destin qui a fait ça, pas moi ».

    Quand ils arrivent tous à peu près en même temps, et que personne n’est encore conscient, on peut se dire que l’on choisi de manière rationnelle en maximisant le taux de survie.
    Mais une le patient 0 réveillé, on le prive plus d’un potentiel réveil, on le tue. (Et on vole son cadavre accessoirement.)

    Et donc, après avoir trop réfléchis et tourné ces idées en rond, je dirais que je m’arrête au niveau 5. Ne pas pouvoir prendre de décision, reviens à laisser mourir les autres.

    Ce que je tire de tout ça c’est que le groupe passe avant l’individu jusqu’à une certaine limite.
    Mais est-ce dû à mon ressenti propre, mon éducation, mon environnement social ou sociétal, ma nature humaine ?
    Est-ce que l’on peut ou doit considérer cette limite comme bien ou mal ? Utile ou inutile d’un point de vue social ou évolutif ?

    Ça a soulevé plein de questions… C’est de ta faute ! J’exige que tu y répondes ! >.<

    Enfin, j'avais déjà eu ce genre de réflexions sur ce sujet mais d'un point de vue plus large (et encore plus choquant) :
    Pour maximiser le bonheur (confort de vie) de la population, le temps qu'elle est en vie, peut-on imposer une limite d'âge maximum ?
    En d'autre mots : Est-ce que l'euthanasie systématique à un âge calculé peut augmenter le confort de vie ? Et est-ce que ça serait moral ?

    Quand j'ai vu Soleil vert la première fois (vers 12 ans) je me suis dit évidemment que non !
    Mais j'avoue qu'aujourd'hui, je suis beaucoup moins sûr de ma réponse.

    J'ai beau avoir ce réflexe de refuser de tuer des gens pour mon propre bien et par extension pour celui des autres et de la société, je me demande si c'est vraiment raisonnable. Et même si c'est moral.

    On voit aujourd'hui que notre système social atteint ses limites : nous n'arrivons plus à fournir des retraites décentes à tout le monde, ni les services de santé qui vont avec. Nous n'arrivons pas non plus à loger tout le monde, à fournir de l'éducation (7% d'illettrisme en France au moment où j'écris ces lignes), de la justice, de la sécurité, etc.

    De l'autre côté, chaque individu (ou presque) ne veut pas consentir à plus d'effort de sa part pour le bien du système. À tort ou à raison, chacun trouve des justifications (parfois bonnes ou mauvaises) pour rejeter la faute sur quelqu'un d'autre, et prétend à de meilleurs conditions de travail et de vie.

    Or, nous vivons dans un monde fini. Inutile de chercher la croissance infinie ça n'arrivera jamais. Inutile de vouloir vivre toujours plus longtemps et avec un confort toujours plus grand, c'est impossible.

    En partant de ce constat. Est-il si amoral de se dire que l'on peut choisir de vivre beaucoup mieux, en réduisant drastiquement notre durée de vie individuelle ?

    D'autant qu'aujourd'hui, on sait que continuer tel que nous le faisons n'impacte pas seulement notre propre système, mais également celui des autres pays du monde, toute l'économie étant mondiale…
    Mais pire encore, cela impactera de façon certaine, les générations futures, qui subiront tous les abus que l'on commet aujourd'hui. Et les conséquences seront bien pires que celles que l'on voit déjà dans les pays pauvres.
    En fait il en va de la survie de l'espèce. Et pourtant difficile d'accepter cette idée de mourir prématurément…

    On peut bien sûr craindre une dérive totalitaire. Se débarrasser des gros, des handicapés, des malades…
    On peut même se dire qu'on risque d'arriver un un eugénisme, puisqu'il y aura un archétype d'individu qui sera plus performant que les autres. Si l'on recherche la maximisation de l'utilité, ne faudra-t-il pas supprimer les autres archétypes ?
    Enfin ça dépend de ce que l'on définit comme "utile", mais ça reste très dangereux.

    Ceci dit, qu'est-ce qui est le plus amoral ?
    L'égalité parfaite du temps de vie pour chacun quitte à euthanasier en masse la population vieillissante ?
    Ou l'inégalité des conditions et des durées de vie, en fonction de son milieu social (inégalité qui se creuse de plus en plus à l'heure actuelle) ?

    Je n'ai pas envie de choisir l'option 1, mais je dois reconnaître que j'ai du mal à contre argumenter. Et comme je connais les conséquences qu'apportera notre modèle économique et social actuel sur la vie du groupe et également des groupes futurs…
    La raison me pousse à dire qu'elle n'est pas si inenvisageable que ça.

    Bref, après ça j'ai l'impression d'être le plus gros enfoiré de l'univers. 😦
    Merci, de m'avoir poussé vers ces réflexions. :V
    Et si tu as des réponses ou débuts de réponses concernant ces questions sur les individus et les groupes, et l'égalité en leur sein, je suis preneur.

    J'aime

  6. Je ne comprends pas comment on pourrait choisir de sauver le patient 0: Dans chacun des cas, on a le choix entre 2 options: soit 6 patients entrent dans l’hôpital et un ressort, soit 6 patients rentrent et 5 ressortent. Le reste ne me semble être que des détails.
    J’ai vu dans les commentaires que beaucoup avaient changé d’avis à partir de la variante 6, sous prétexte que désormais les organes lui appartenaient, que les lui enlever lui prendrait quelque chose de plus que la vie (je confesse cependant ne pas avoir compris quoi), mais c’est totalement faux.
    1) Parce que cet individu doit de toute façon tout à la société, ce n’est pas comme s’il avait vécu comme ermite dans une montagne puis serait un jour descendu, aurait été à l’hôpital puis aurait travaillé pour payer ces dettes sans jamais être dépendant de quiconque. (et même dans ce cas la, elle a accouchée où, sa mère?) La société lui a rendu tout un tas de service qui ne sont pas forcément chiffrables, et dont certains sont inestimable à l’échelle de cet individu.
    L’individu doit de toute façon tout à la société, alors quoi que la société lui demande, elle ne pourra jamais demander trop.
    2)Parce que sauver le patient 0, c’est en même temps choisir de tuer de façon tout à fait délibérée les 5 autres patients. Ca ne pourrait pas compter comme un homicide involontaire, puisque que ce n’est justement pas involontaire. J’ai aussi lu que ça ne pourrait compter que comme non assistance à une personne en danger. Mais cela efface un détail très important: c’est la non assistance à 5 personnes en danger, sous prétexte de sauver une personne (sauver de soi-même).

    C’est pour cela que je conclut que sauver le patient 0 est totalement indéfendable, quelle que soit la variante.

    J'aime

  7. Les variantes 6 et 7 sont un luxe personnel : on se rend coupable direct et indéniable d’un meurtre. Dans les cas 1 à 5 on se dédouane d’avoir fait un meurtre. Mais finalement, une personne sera morte par votre choix pour que 5 vivent. Et, pour moi, c’est le même problème depuis le scénario 1.

    Je propose une variante 8 : le patient 0 n’est pas à l’hôpital, il faut aller le chercher dans la population.

    Variante 9 : Le patinent 0, c’est vous. On change de problématique car on parle de sacrifice mais est-ce plus moral pour vous de laisser quelqu’un se suicider, c’est toujours un meurtre.

    Ma variante 9 existe ! En médecine, je crois, en plus : le don de moelle osseuse. Le don de moelle osseuse intra-osseux est un acte avec un risque vraiment très faible mais existant de mortalité. En cas de compatibilité, le choix est à la discrétion du donneur qui normalement connaît le risque. Et donc statistiquement dans ce cas, il y a quelques personnes qui meurent pour que d’autres survivent. Non ?

    J'aime

  8. Et bien moi je sauverais toujours les 5 patients. 5 vies vaut mieux que une. Et la seule chose qui pourrait me faire changer d’avis c’est le nombre de gens qui aiments chacun des 5 patients. Le patients 0 lui ne seras jamais sauvé. Il gaspille trop de ressource à lui seul. Et si je continue dans ma réflexion. Je ne sauverais qu’une personne celui qui a le plus de proche. Apres tout si les ressources médicale sont limitées les autres ressources aussi probablement donc c’est gens blesser ne seront que des consommateurs de denrées. En plus. De plus si il doivent suivre une médication après leurs traitements sa dépensera beaucoup de ressource. Donc le mieux c’est dans sauvé un celui qui a le plus de proches. Je sauvegarde un maximum de ressources. Et je sauve une personne qui pourra rendre un maximum de gens heureux. Bien évidement aucun des 6 patients ne fait partie de mes proches. C’est sur que si le patients zéro est un de mes proches je le sauve lui ou inversement si l’un des 5 est un de mes proches. Je ne sauverais d’ailleurs que lui. Descision égoïste. Mais la plus logique pour moi.

    J'aime

  9. Pourquoi le questionnaire s’arrête-t-il à la variante 1 quand j’ai décidé de sauver le patient 0 ? S’il y a des variantes, c’est bien pour voir si nous avons le même comportement à chacune d’entre elles non ? (Même si ça peut sembler illogique, en réalité, les variantes introduisent parfois des données supplémentaires qui pourraient faire changer d’avis…)

    J'aime

    • Toutes les variantes (au moins jusqu’à 8 – les 9 et 10 sont un peu différentes, mais tant pis) sont « pires » donc je vois peu l’intérêt de proposer les scénarios suivants. Une fois qu’on s’arrête c’est pour de bon, me semble-t-il

      J'aime

  10. Je viens de voir ta vidéo POUR UN PEU PLUS D’UTILITARISME, et j’ai longuement médité sur ta façon d’évacuer le rapport à soi comme quelque chose d' »immoral » d’un point de vue utilitariste, car il me semble, au contraire, que le rapport à soi est présent dans chacun de nos choix moraux. En effet, à partir du scénario 6, où l’on change la situation initiale du patient (dans les scénarii 1 à 5, le patient 0 est sensé mourir avant d’aller à l’hôpital, et dans les scenarii postérieurs, ce n’est pas le cas), on peut parler de meurtre et refuser « l’utilitarisme » car on refuse absolument que l’on fasse cela à nous-même. Je ne dis pas que l’on ne se sauverait pas nous-même dans les scénarii 1 à 5, si nous avions le choix, je dis que, en expérience de pensée, on peut accepter qu’un docteur fasse ce calcul, même s’il s’agissait de nous-même. A partir du scénario 6, ce calcul devient parfaitement inacceptable car on refuserait que l’on nous tue, tout simplement. Ainsi, je pense que Lê sauve le patient 0 à partir du scénario 6 en se projetant dans le celui-ci, car son empathie envers le patient 0 lui provoque un trouble parfaitement compréhensible. Ce n’est donc pas un impératif catégorique au sens kantien qui le pousse à refuser de le tuer, c’est une autre sorte de « calcul empathique » dans lequel Lê lui-même tient un rôle.

    J'aime

  11. Le pire c’est la variante 8, les moins pires de toutes ce sont la 1, la 9 et la 10 car dans la 9 et la 10 on peut considérer que ce ne sont pas des humains mais des objets, la conscience du monde extérieur n’est pas présente, ça me derangerai pas qu’un hôpital élève des clones de donbeurs universelle pour nous habitant du monde extérieur

    J'aime

  12. Je commence à douter que ces expériences de pensées « saisissent » réellement les intuitions morales qu’on souhaiterait qu’elles saisissent.

    Si on y réfléchit, les conséquences de toutes ces expériences sont radicalement différentes, il n’y a qu’une sous partie des conséquences qui reste identique (le 1 vs 5 morts).
    (ça sous-entend qu’on ne devrait être intéressé que par ces conséquences précises, ce que je trouve un peu ironique quand on pense que ça n’est même pas ça que l’utilitarisme classique, ou les autres forme d’hédonismes, cherche à optimiser)
    D’une certaine manière, si toutes les conséquences étaient réellement identiques, ces expériences seraient elles-même identiques, et c’est une des raisons qui fait que je trouve le conséquentialisme difficilement attaquable.

    Pour vraiment marquer la différence entre conséquentialisme et déontologie, il faudrait deux situations, A et B, que la personne préfère A (mais A de manière complète, pas juste les conséquences qu’on a choisit de mettre en avant). Mais que la personne continue de choisir B, et continue à penser que choisir A est immorale, parce que le choix de A casse une règle déontologique.
    D’une certaine manière la personne doit être contente si la situation A se produit sans intervention d’agents (ce qui fait référence à mon précédent commentaire, où j’ai essayé d’utiliser cette idée).

    La référence en question :
    « Imaginons que cette banque humaine d’organes existe, mais que personne n’en soit responsable et que personne n’y puisse rien, est ce que ça serait une situation qui te semble plutôt bonne, ou mauvaise ?
    Si ça te semble plutôt mal, c’est donc bien la conséquence d’avoir cette banque d’organes qui pose problème, et non simplement le fait de faire le choix de la créer. »

    J'aime

  13. Je suis assez d’accord avec le commentaire précédent de dd, effectivement le conséquentialisme est difficilement attaquable même si je désapprouve l’exemple qui dit que qu’une autre entité que les conséquences peut rentrer en jeu dans la prise de décision. L’exemple cité par dd nous dit que l’on doit choisir une situation « de manière complète, pas juste les conséquences qu’on a choisit de mettre en avant ». Or comment qualifier le reste des aspects la situation si ce dernier n’est pas constitué des conséquences inhérentes à ces aspects?
    J’ai peut être mal saisi mais M.Phi semble présenter le déontologisme comme une manière de considérer le sens moral d’un évènement en soi. Comment accéder à ce sens moral s’il ne se manifeste pas par des effets dans la réalité concrète de la situation? Le déontologisme me paraît une justification métaphysique non nécessaire et surtout impraticable. Si l’on se réfère à l’impératif catégorique de Kant, l’universalisation d’une maxime n’est jamais qu’un moyen de se projeter les conséquences à grande échelle de tel ou tel principe et ainsi de savoir s’il est « universellement bon ». Je sais que Kant ne l’envisageais pas du tout en terme de conséquences mais en terme de raison a priori, toutefois il me semble que justifier un principe moral par un principe métaphysique permet à peu près tout et n’importe quoi. Mais peut être existent-ils des critères objectifs de délimitation en terme déontologistes (c’est à dire sans prendre en compte les conséquences), je ne les connais pas et je serais ravi de les découvrir.

    Pour en revenir au « renoncement utilitariste » du niveau 6, cela en est un si l’on considère la vie humaine individuelle comme valeur absolue et impondérable d’échelle morale (quoique l’utilitarisme ne dise pas exactement cela, puisqu’il défend le plus grand bonheur du plus grand nombre). La vraie limite de l’utilitarisme semble être que cette doctrine peut justifier la souffrance extrême d’un petit nombre pour donner un bonheur équivalent à un grand nombre.
    Le renoncement du niveau 6 est certes un renoncement au principe qui prévalait dans les cas précédents (5 vies valent mieux qu’une) mais je ne vois pas en quoi il s’agit d’un renoncement conséquentialiste. Voici trois renoncement dont les deux premiers restent conséquentialistes et un troisième qui me semble problématique :

    -« En tant que chrétien, j’estime que c’est mal et je risque l’enfer » ==>Les conséquences religieuses sont certes situées dans un arrière monde mais elles sont néanmoins des conséquences. Toutes les morales religieuses sont conséquentialistes.
    -« C’est chaud, je ne peux plus » Cette réaction caractérise un état où si la décision de tuer le patient 0 est prise, les sentiments résultants éprouvés seront si négatifs (remords, empathie, identification, culpabilité etc.) qu’il est préférable de renoncer malgré l’avantage utilitariste, le coût pour ma propre personne est trop élevé.
    -« Je considère que c’est mal à partir de ce point, et c’est comme ça. » Ici il s’agit d’une justification péremptoire qui s’exempt de la logique et peut donc justifier n’importe quoi. C’est pourquoi je pense qu’il faut écarter ce genre de justifications d’une réflexion sur la morale car ces justifications annihilent toute évolution possible. Je serai d’avis de demander à la personne qui affirme cela d’étayer davantage son point de vue. Si elle ne le peut pas, en quoi pourrait elle me contredire si j’affirme exactement le contraire de ce qu’elle avance. Le déontologisme pur me paraît donc indéfendable car rationnellement invalide.

    A titre d’hypothèse, je pense que l’affirmation du troisième cas est également justifiée par un conséquentialisme inconscient : mon histoire génétique et/ou sociale m’ont conduit à considérer cette action comme quelque chose de mal, mais si je n’ai pas réfléchi à pourquoi je trouve cela mal j’aurais naturellement tendance à estimer que c’est ma conscience, ou la raison a priori qui me dictent de penser cela, et ainsi à considérer que cela est mal en soi. En réalité, si j’estime que cela est mal, c’est en fait que j’estime de manière inconscience que cela est mauvais pour moi et pour les autres, et cette estimation inconsciente est la conséquence de mon histoire génétique et éducative dont je n’ai également pas forcément conscience. Un jugement personnel n’est jamais gratuit, il est toujours ancré dans une histoire et en constitue donc la conséquence. Néanmoins un jugement personnel reste un jugement personnel (toujours construit de manière consciente et inconsciente) et il ne peut accéder au statut d’une certaine objectivité qu’en étant passé au crible de la méthode rationnelle. De fait, pour savoir si une chose est bonne ou mauvaise, il faut avoir des critères matériels et objectifs (les conséquences) pour pouvoir trancher.

    En conclusion, j’avance l’idée que tout jugement moral est conséquientialiste à son fondement, même si le porteur de ce jugement n’en a pas forcément conscience. Ainsi il n’existe pas de bien ou de mal en soi, mais de l’objectivement mieux ou de l’objectivement moins bon en fonction des conséquences externes (nombres de morts dans l’exemple de l’hôpital martien, paradis ou enfer etc.) ou internes (sentiments ressentis, histoire éducative etc.)

    J'aime

    • Je me trouve assez en ligne avec Lauthard, mais il ne faut pas oublier que si l’utilitarisme est conséquentialiste, la réciproque n’est pas vraie. L’utilitarisme est une théorie conséquentialiste où l’agent ne doit pas intervenir dans le calcul des coûts/gains. Or, comme l’a bien noté Lauthard, cela semble bien difficile, et la raison vraisemblable pour laquelle Lê sauve le patient zéro à partir du scénario 6, est qu’il est empathique, dit autrement, il n’accepterait pas qu’on fasse cela à lui-même. Dès lors, Lê n’est plus utilitariste au sens de Bentham, mais il reste conséquentialiste. Un conséquentialiste où l’agent intervient dans le calcul des coûts/gains.

      Toutefois, je souhaite apporter une réflexion. Peut-on dire qu’avant le scénario 6, Lê était parfaitement utilitariste? Il me semble que ce n’est pas certain. Certes, à première vue, on pourrait dire que Lê fait un calcul sans prendre en compte ses « sentiments », donc qu’il est utilitariste. Mais je pense au contraire qu’il a bien pris en compte son empathie dans l’appréciation de la situation. Il a certainement jugé que, même si c’était lui qui était le patient zéro, il pouvait comprendre rationnellement le choix du médecin. Il pourrait tout autant être le patient 1,2,3,4,5, il sait qu’initialement, dans ces scenarii tout le monde est sensé mourir. Il comprend donc qu’il vaut mieux sauver 5 personnes qu’une seule. Je dis bien qu’il comprend le raisonnement, par qu’il l’accepterait s’il s’agissait vraiment de lui-même le patient zéro…

      Ainsi, même si ce jugement n’est pas conscient, il me semble qu’il est impossible d’écarter l’agent du calcul conséquentialiste. Et en ce sens, je crois qu’il est difficile d’être purement utilitariste. A moins d’être un sociopathe 🙂

      J'aime

      • Effectivement, si l’utilitarisme se définit comme la maximisation du plus grand bonheur du plus grand nombre, il ne faut jamais oublier qu’un jugement moral est porté par un être humain dont l’intérêt personnel (au sens large, l’intérêt personnel constituant ici l’ensemble des motivations à la source de ses choix) n’est jamais strictement confondu avec le plus grand bonheur du plus grand nombre. L’utilitarisme pur serait dès lors une sorte d’idéalisme séduisant mais impraticable à moins de s’oublier totalement.

        On peut donc en conclure qu’avant le niveau 6, l’intérêt personnel de Lê et l’intérêt utilitariste coïncident (d’où la difficulté de savoir si c’est vraiment l’utilitarisme qui guide ses actions, comme l’a bien souligné Gerka), et que le niveau 6 déclenche en Lê des motivations morales clairement distinctes de l’utilitarisme, mais toujours conséquentialistes pour les raisons évoquées plus haut.

        J'aime

  14. Pour la question ajoutée à la fin de l’extrait d’Axiome, bien que considérant ces « banques à organes » comme des humains, et donc considérant comme du cannibalisme le fait de les manger une fois morts, je trouve logique de les manger; le « mal » étant déjà fait: Ils ont été produits et tué pour leurs organes, la chair morte doit servir, ce serait bête de s’en priver et de tuer autre chose pour se nourrir (surtout si bon pour la santé), cela ne me dérangerai pas plus que ça. C’est plus comment et pourquoi ils ont été traité ainsi que je trouve répugnant.

    De même je suis complètement contre le fait de les laisser dans un état végétatif; dans tous les cas ils mourront (comme on meurt tous, ceci dit), la seule différence étant leur qualité de vie, pourquoi leur en priver?
    Peut-être que c’est le fait de se dire qu’en vivant leur vie, ils sont conscients d’eux mêmes et de leur sort qui peut déranger; on tue des êtres comme nous, heureux et jeunes s’ils meurent à vingt ans, ça peut paraître plus égoïste. Pourtant les laisser inconscients me semble alors l’être encore plus, c’est seulement pour soulager notre propre conscience, ce qui rend l’ensemble encore plus malsain et cruel, non?

    Bref voilà hein.
    Bisous, amusez vous bien 😀

    J'aime

  15. Bonjour M. Phi,

    Concernait les « fermes à humains », et le problème qu’elles posent (ou non ; je fais partie de la seconde catégorie), j’avais la réflexion suivante :

    dans une de vos première vidéos (« MATÉRIALISME ET TERMINATOR », je crois), on finit par conclure (enfin c’est ce que j’en comprends, et je suis d’accord avec ça), que si on arrive à créer une conscience simulée parfaitement identique à la notre, alors, grossièrement, le robot devient humain.

    Les fermes à humain sans conscience, ça revient à construire des robots de ce type, et de ne jamais appuyer sur « ON » pour les démarrer… je ne vois pas vraiment le problème éthique que ça pose (mais bon, je n’y pas réfléchis plus de 5 minutes avant d’écrire ce commentaire :))

    J’aimerais beaucoup avoir votre avis sur cette réflexion ! (à supposer qu’elle n’ait pas déjà été formulée bien entendu)

    Cordialement,
    Charles

    J'aime

    • Si on veut comparer, il s’agirait plutôt d’empêcher l’IA de se développer en la forçant à accomplir une tâche en boucle. Et si entretenir une IA dans cet état stupide représente le même coût que de la laisser « vivre », oui ça me paraîtrait assez immoral de le faire. Mais on a moins d’intuition forte à ce sujet car nous n’avons jamais eu encore affaire à ce genre d’intelligence, et sans doute la notion de plaisir et de souffrance (qui est centrale dans notre appréhension de la morale) serait très différente ou n’aurait pas de sens pour elles

      J'aime

  16. J’ai beaucoup de mal avec la notion de maximiser le bonheur présente dans l’utilitarisme, je pense que son coté subjectif peut servir à justifier toutes sortes d’arnaques. Par exemple, si je vends une bouteille de piquette au prix d’un grand cru à quelqu’un qui n’y connaît rien, j’augmente le niveau de bonheur de tout le monde, non ? Je suis heureux d’avoir fait une très bonne affaire, et le pigeon est aussi heureux que si je lui avais vendu une vraie bouteille. Cf aussi ce smbc-comics : http://www.smbc-comics.com/index.php?db=comics&id=2569#comic

    Je pense que l’utilitarisme n’est pas vraiment applicable dans un univers aussi chaotique que le nôtre. Le fait de faire aussi bien que l’on peut avec les moyens que l’on a ne se justifie pas d’un point de vue utilitariste, où seules les conséquences devraient compter. Par exemple, si dans le premier scénario je sauve sans le savoir cinq tueurs en série en sacrifiant un saint, je fais une mauvaise action d’un point de vue utilitariste. Si je me justifie en invoquant le manque d’informations que j’avais, j’adopte une posture déontologique, non ? J’utilise un commandement moral (« Je dois faire ce qui maximise le bonheur total, compte-tenu de tous les éléments dont je dispose ») pour justifier une action qui a diminué le bonheur total.

    En tout cas, je vous remercie pour vos vidéos, très intéressantes ! Je suis tout ému de commenter pour la première fois !

    J'aime

      • Je rejoins Katsobo mais il me semble que la situation de l’arnaque à la bouteille de vin relève davantage du problème moral du contrat que de l’utilitarisme lui même. La logique contractuelle sous tend que nous pourrions en toute circonstance émettre un jugement éclairé et objectif sur ce qui est le mieux pour nous (et éventuellement pour les autres), or ce n’est pas le cas, comme on peut le constater dans votre exemple. Il y a aussi celui du plombier qui facture 5000 euros le changement d’un robinet à une personne âgée qui consent à cette facture alors que l’arnaque est évidente. Le consentement ne peut pas être la garantie à coup sûr de la moralité d’une action (même si c’est souvent un bon indicateur).

        Pour le smbc je trouve qu’il illustre parfaitement la limite de l’utilitarisme qui fait du bonheur une notion collective et non individuelle. C’est la somme des bonheurs individuels qui compte pour l’utilitarisme ce qui sous-tend de négliger le bonheur particulier que chacun peut ressentir. L’utilitarisme en tant que doctrine morale autorise le malheur individuel, car son étalon est avant tout collectif.

        Pour ce qui est de votre exemple des 5 tueurs et du saint, je ne comprends pas en quoi le manque d’informations vous fait adopter une posture déontologique. Je pense ne pas avoir bien saisi ce que vous vouliez dire, pourriez vous développer?

        La décision même de vous justifier après avoir sauver les mauvaises personnes relève d’une forme de rationalisation a posteriori qui me semble inutile : si vous ne saviez pas qui était ces personnes, vous avez pris la bonne décision en en sauvant 5 même si cette décision s’avère mauvaise a posteriori. La moral est une question de choix à l’instant t, et il faut toujours replacer cette décision dans le contexte dans laquelle elle a été prise. A l’inverse on peut citer l’exemple de Fritz Haber, chimiste allemand du début du XXe siècle, qui a fait avancé le bien être mondial grâce à ses découvertes en chimie (grâce à une application de ses découvertes dans le domaine de l’agriculture), alors que ces dernières avaient pour objectif de construire des armes notamment des gaz de combats. On ne peut pas juger à posteriori que la décision de Haber de synthétiser des gaz de combat était moralement bonne sous prétexte que les conséquences a posteriori sont bonnes. Le conséquentialisme de la prise des décisions se situe toujours au moment de la décision et pas après. La décision de tuer une personne plutôt que 5 sans autres informations est une bonne décision et reste une bonne décision même si a posteriori les conséquences s’avèrent néfastes.La quantité d’information à l’instant T est donc cruciale.
        D’après moi votre exemple montre simplement que prendre une bonne décision sur le plan moral nécessite de disposer d’un maximum d’information et que plus la décision sera informée sur ces implications passées présentes et futures, plus elle pourra être justifiée sur un plan moral. Si je décide de tuer une personne que cinq sans savoir que je sacrifie un saint pour sauver cinq tueurs, je commets le même type d’erreur que la personne âgée qui accepte de payer 5 000 euros pour un robinet réparé : le manque d’information, voire une désinformation dans le second cas, a biaisé le raisonnement.

        Mais encore une fois j’ai peut être mal saisi, je suis donc tout ouïe de vos éclaircissements.

        Bien à vous

        J'aime

  17. Concernant le premier point : le consentement ne peut pas garantir la moralité d’une action, mais l’utilitarisme ne prétend tenir compte que du bonheur, or dans mon exemple le bonheur total augmente à la fin de la transaction.

    Concernant la posture déontologique : dans votre message, vous dites que « La décision de tuer une personne plutôt que 5 sans autres informations est une bonne décision et reste une bonne décision même si a posteriori les conséquences s’avèrent néfastes ». Pour moi, cette phrase traduit un point de vue déontologique, et non utilitariste, puisque vous qualifiez de bonne une action dont les conséquences sont néfastes. Cela revient à dire que l’action était bonne car les principes utilisés pour la justifier sont bons, or l’utilitarisme prétend justement ne tenir compte que des conséquences, peu importe les principes moraux. Pour moi l’utilitarisme théorique est effectivement utilitariste… Mais sa version applicable dans le monde réel, qui consiste à tenter de maximiser le bonheur compte-tenu des informations dont on dispose, est une morale déontologique puisque on peut, même en l’appliquant à la lettre, commettre des actions néfastes.

    J'aime

    • Cette phrase ne traduit pas un point de vue déontologique si on estime que l’agent a pris sa décision morale en fonction des conséquences, qui sont toujours hypothétiques (nous ne connaissons pas l’avenir); et non pas en fonction d’un principe moral. Le manque d’informations ne change rien à l’affaire. D’un point de vue déontologique d’ailleurs, il n’y a nul besoin d’informations pour prendre une décision morale, puisque la loi morale vient de soi et existe en soi.

      J'aime

      • Je rejoins Gerka, effectivement l’absence d’information n’implique pas l’abandon du conséquentialisme. Au moment de la prise de décision c’est toujours les conséquences qui la guident même si les conséquences réelles diffèrent des conséquences escomptées.

        Quant à l’exemple de la bouteille de vin, je ne suis pas sûr que l’on puisse assurer que le bonheur global ait augmenté à la fin de la transaction, du fait de l’absence d’honnêteté qui en est à la source. Le mensonge qui s’est insinué peut impliquer plusieurs conséquences très néfastes à l’avenir : l’escroquerie du vendeur peut être repérée et compromettre son commerce et le mauvais goût de l’acheteur peut être moqué par un futur convive, provoquant chez lui une honte dommageable et un coût social un important.
        L’absence d’honnêteté augmente le nombre de conséquences néfastes cachées qui malgré un apparent contentement de chacune de partie peut en réalité diminuer le bonheur total. Cette situation ne se serait pas produite si l’honnêteté avait été de mise (l’acheteur reconnaît qu’il achète de la piquette auprès de ses invités, le vendeur fixe le prix du vin en fonction de la qualité réelle).

        (Pour une étude du mensonge d’un point de vue purement conséquentialiste et non déontologique, je renvoie au court mais brillant ouvrage de Sam Harris, Lying, ou Mensonges en français)

        J'aime

  18. La vraie expérience de pensée bien pourrie, c’est Sobibor (le film) : 50 prisonniers repris après tentative d’évasion. « Deal » du chef du camp : 1. Vous allez mourir. 2. Soit vous choisissez chacun 1 personne dans le camp pour mourir avec vous (total 100). 3. Soit j’en choisis moi 200 (total 250)… 4. Petit bonus moral si 49 sont allés choisir quelqu’un et que vous êtes le seul à dire « non, je ne joue pas à ce jeu-là »… Ceci montre surtout que l’utilitarisme est un principe de « temps calme » et qu’il n’est d’aucune… utilité aux extrêmes. Là, le relais est pris par la spiritualité, la religion, le libre-arbitre, etc. La vraie bonne question est donc : existe-t-il un « principe de vie » dont le domaine de définition soit suffisamment étendu pour s’appliquer en toute circonstance ?

    J'aime

  19. Bonjour, ces questions ont leur place dans notre société qui valorise la vie, une société dans laquelle on légifère.
    Toutes ces réponses sont ajustées en fonction de ce que chacun estime correspondre au bien et au mal.
    Le bien et le mal sont une vision de l’esprit, et tous les esprits sont différents, il n’y a donc pas de bonne ou mauvaise réponse, et il est normal d’obtenir tous ces seuils différents; est-ce que savoir à tel moment ou pourquoi à tel moment on change d’avis a une importance…?

    L’apparition de la notion du bien et du mal est certainement apparue chez l’homme car elle favorise sa vie, et plusieurs « seuils » sont propices à la vie, les différences entre les lois d’un pays à un autre le prouve.

    Est-ce que grâce aux progrès de la médecine on peut choisir de la vie ou de la mort? Il n’y a pas de bonne réponse.

    La vie suit son cours dans un intervalle qui lui est favorable, tout comme il n’y a pas de personnes meilleurs que d’autres, qui valent plus que d’autre, il y a juste des personnes.

    J’adore mes chats qui tuent des oiseaux et des rongeurs.

    Si tout le monde ne sauvait personne, ou si tout le monde sauvait un maximum de personne n’a pas d’importance, c’est juste comme ça…
    Peut-être que l’homme mettra fin à ses jour et ça ne sera ni bien ni mal, il y a des tas d’autres espèces, et d’ailleurs même s’il n’y avait plus de vie, est-ce que ça serait grave?
    L’espace finira dans le froid et la vie disparaitra de toutes façons, c’est inéluctable, car même un trou noir perd de son énergie, pourquoi est-ce si important de garder la vie le plus longtemps possible?

    À quoi sert la vie?
    Ce que je retiens de tout ça c’est:
    On n’a qu’une vie, la passer heureux est important, ne pas faire de mal l’est aussi, faire le bien l’est aussi, influencer à faire le bien l’est aussi.
    Je dois partir, pas le temps d’ajuster plus, bonne fin de soirée 😉

    J'aime

    • Cher Fabien, il me semble que votre dernier paragraphe vient contredire vos propos, quand vous dites « on n’a qu’une vie, la passer heureux est important », il paraît clair qu’il s’agit d’une réponse à votre question « à quoi sert la vie ».

      Le fait que l’homme mette fin à ses jours n’est ni bien ni mal que du point de vue de Sirius, mais pour les humains que cela concernent, c’est une problématique importante. De la même manière que la destruction d’une fourmilière par une pluie torrentielle nous est indifférente sur le plan moral, la fin de l’homme n’a pas d’implications morales si l’on se place depuis une autre galaxie. Néanmoins nous sommes dans la fourmilière, nous sommes sur cette Terre dans une temporalité qui n’est pas celle de l’univers. Nous attribuons donc tout naturellement un sens moral aux évènements nous concernant. Donc oui si il n’y avait plus de vie, ce serait grave pour nous.

      Vous dites que le bien et le mal sont tous différents car il ne s’agit que de visions de l’esprit, mais si l’on regarde votre dernier paragraphe, vous dites qu’être heureux est important. Or il semble que le fait d’être heureux possède en soi des aspects communs à tous les êtres humains (réponse aux besoins fondamentaux corporels et affectifs, hygiène, liberté politique, culture etc.)
      Le fait que les lois des pays soient toutes différentes est très discutable. L’interdit du meurtre sans motif est par exemple quelque chose que l’on retrouve dans toutes les cultures même primitives. De même les lois des différents pays tendent à s’uniformiser au cours des siècles, ce qui aboutit à des traités, des accords et de nombreuses lois communes (l’Europe en est un bel exemple).

      Il n’y a certes pas de bien et de mal dans l’absolu, mais il y a indiscutablement du meilleur et du pire aux yeux des êtres humains.

      La question de la morale est en fait là : quels sont ces traits communs qu’il faut encourager et valoriser de manière universelle afin que le bonheur non pas moyen, mais de chaque individu, augmente. Seule l’augmentation de la connaissance sur nous même, à travers la psychologie, les sciences cognitives, les neurosciences etc. peut nous permettre de répondre à ces questions. D’où le lien d’après moi très important entre épistémologie, connaissance et morale.

      J'aime

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s