Suite à l’article sur la terre plate, je souhaite ici expliquer une vidéo souvent utilisée comme argument massue par les plattistes : Lil Piggy.

Cette vidéo est souvent utilisée dans une version courte (moins de 2 minutes) où l’on ne voit que l’horizon:

horizon

Il est clair qu’on n’y voit pas de courbure. De cette constatation, les plattistes en déduise que c’est une preuve que la terre est plate.

La réalité n’est pas si simple, car plusieurs paramètres influent sur la courbure de l’horizon.  Les voici:

  1. La position de la ligne par rapport au centre de l’image. Plus la focale de l’objectif est courte (fisheye), plus celui-ci déforme les lignes. Cependant, les lignes passant exactement par le centre de l’image ne sont jamais déformée (fisheye ou pas)
  2. L’altitude de l’observateur. Plus on est bas (proche du globe), et plus la portion de sphère que l’on voit est petite. Si on regarde une toute petite partie d’un cercle, la courbure n’est plus visible. C’est le même principe. Au niveau de la mer, impossible de voir une courbure, car celle-ci est trop faible. En altitude, la courbure peut apparaître, car la portion de sphère visible est plus grande.
  3. L’angle de champ. C’est le même phénomène que l’altitude. L’angle de champ est l’angle couvert par l’image. Plus la focale utilisée est courte, plus cet angle est grand, et plus la courbure est visible. Même à haute altitude, l’utilisation d’une longue focale peut réduire la portion de sphère que l’on voir, et rendre la courbure invisible.

Nous allons détailler ici ces trois éléments, calculs à l’appui, pour montrer pourquoi les images de Lil Piggy ne montrent pas de courbure.

La position de l’horizon par rapport au centre de l’image.

Tous les objectifs photo, et pas seulement les « fisheye » déforment. Cependant, les lignes passant par le centre optique (le centre de l’image), ne sont pas déformées.

Ce phénomène est beaucoup plus prononcé lorsqu’un objectif est de type « fisheye », comme on peut le voir sur l’image ci-dessous (prise avec un 16mm fisheye), et on notera que même les lignes inclinées (à 45 degrés ci-dessous), subissent cette déformation lorsqu’elles ne passent pas par le centre optique:

_MG_1801

Dans la photo visible au début de cet article, l’horizon ne passe pas par le centre de l’image, si bien qu’il est courbé vers le bas. Impossible de déterminer avec quelle ampleur, car les caractéristiques de la caméra utilisée sont inconnue. Par contre, on notera que c’est exactement ce qu’il faut pour transformer un horizon courbe en horizon plat.

Pour éviter ce défaut, il faut rechercher dans la vidéo une image dans laquelle l’horizon passe par le centre du cadre, tout en ayant été prise à ce que l’on suppose être l’altitude maximum atteinte par le ballon (pour ce paramètre également, aucune certitude possible avec cette vidéo). En voici une avec un horizon plus proche du centre, et qui a été prise peut de temps avant la chute de la nacelle attachée au ballon. Elle est issue d’une version non coupé durant 2h:

Center

Telle que la caméra a été montée sur la nacelle accrochée au ballon, il est difficile d’avoir une image avec l’horizon exactement au centre de l’image. Cependant, on voit sur cette capture d’écran (centre de l’image matérialisé par la croix bleue), qu’une courbure de l’horizon est visible. Par contre, pas d’information fiable sur l’altitude de cette image.

Si l’on suppose que la caméra utilisée est une GoPro, les focales possibles sont : 17,2, 21,9 et 34,4mm en équivalent 24×36, ce qui est, au moins pour la première, du même ordre de grandeur que les 16mm du fisheye utilisé pour la photo du quadrillage présenté précédemment.

L’altitude de l’observateur

Avec Lil Piggy, impossible de vérifier l’altitude atteinte.

En revanche, ce que l’on peut faire est de calculer la courbure attendue en fonction de l’altitude. Pour cela, partons du schéma suivant:

Schema

Voici la terre de rayon R = 6371 km.
h est la hauteur, ou altitude de l’observateur représenté par le point noir.
d est la distance avec l’horizon. Cette distance est celle mesurée sur la sphère, c’est donc la longueur de l’arc de rayon R et d’angle a.
l est la distance en ligne droite avec l’horizon. Comme la tangente est à un cercle est perpendiculaire à l’un de ses rayon, nous pouvons en déduire que l’angle entre l et R est un angle droit. Celui-ci nous permettra de faire ci-dessous des calculs de trigonométrie basés sur le triangle rectangle correspondant : R, l et R+h
r est le rayon de l’horizon. C’est le rayon du cercle que l’observateur voit comme étant l’horizon. C’est le rayon de ce cercle qui nous intéresse, avec la distance l. En effet, la courbure que l’on recherche correspond en fait à celle du cercle de rayon r vu depuis la distance l.

Nous avons donc besoin de calculer l et r en fonction de h.

R est le coté adjacent de a dans le triangle rectangle l, R, R+h, donc cos(a) = R / (R+h)
On aura donc a = acos( R/(R+h) )
l est le coté opposé de a dans le triangle l, R, R+h, donc sin(a) = l / (R+h)
On aura donc l = sin(a) * (R+h)
r est le coté opposé de a dans le triangle rectangle d’hypoténuse R, donc sin(a)  = r/R
On aura donc r = sin(a) * R
On en déduit pour avoir l en fonction de h:
a = acos( R/(R+h) ) et l = sin(a) * (R+h) donc l = sin(  acos( R/(R+h) )  ) * (R+h)
On en déduit pour avoir r en fonction de h:
a = acos( R/(R+h) ) et r = sin(a) * R donc r = sin(  acos( R/(R+h) )  ) * R

L’angle de champ

En fonction de l’altitude de l’observateur, on sait que l’on verra un cercle de rayon r d’une distance l.
Pour comprendre ce que ce cercle donnera sur le capteur d’un appareil photo ou d’une caméra, nous avons besoin de savoir comment ces systèmes créent les images qu’ils enregistrent. Pour cela, nous allons l’optique géométrique.
Voici un schéma illustrant la formation de l’image d’un objet (losange rouge) sur un capteur photo (rectangle C).

objectif

f est la distance focale de l’objectif utilisé.
C est le capteur de l’appareil photo.
On constate que plus le capteur sera grand, et plus la focale sera courte, plus l’image englobera une grande partie de l’espace (plus l’angle de champ sera grand).

Dans le cas du cercle représentant la ligne d’horizon, celui-ci occupera toute la taille de l’image, donc toute la taille du capteur C, car nous en prendrons pas en considération le cas où l’horizon n’occupera pas toute l’image, car cela signifierait que la terre est ronde est que l’on se trouve assez loin pour la photographier dans son ensemble.
Pour Lil Piggy, nous n’avons pas les informations sur C et f, mais nous pouvons émettre l’hypothèse que c’est une caméra GoPro qui a été utilisée. Comme on l’a vu plus haut, en équivalent 24×36, les GoPro peuvent disposer, selon le modèle, de l’une des trois focales suivantes : 17,2, 21,9 et 34,4mm. Afin de considérer tous ces cas, nous allons faire tous les calculs avec les deux valeurs extrèmes : 17,2 et 34,4mm, pour un capteur c de 36mm (car ces focales sont des équivalents 24×36).

En utilisant deux distances focales extrèmes des GoProg, on peut alors calculer la courbure attendu lorsqu’on photographie l’horizon avec un appareil photo 24×36 muni d’un objectif de focal 17,2 et 34,4mm depuis une altitude de 30 km, puisque c’est l’altitude supposée pour le ballon Lil Piggy.

Pour cela, nous allons devoir combiner les informations des deux schémas déjà présentés, car l’horizon est un cercle vu en perspective. Le but de notre calcul est de déterminer la dépression de l’horizon par rapport à une ligne droite parallèle au bord inférieur de l’image et passant pas son centre.

Voici la représentation de la projection du cercle de l’horizon sur le capteur d’un appareil photo:

Cone1

L’horizon est le cercle de base de ce double cône.
Le rectangle est le capteur de l’appareil photo.
Le sommet O du cône est à la fois la position de l’observateur, et le centre optique de la lentille de distance focale f qui sert à créer l’image de l’horizon.
L’arc AC est la portion d’horizon visible avec le système optique de longueur focale f utilisant un capteur de largeur c.
Le but du calcul que l’on va faire est de déterminer l’angle a,  car celui-ci, connaissant f, nous permettra de calculer la dépression d, car tan(a) = d / f
Attention, cette construction n’est valable que si l’horizon occupe tout le capteur c, autrement dit, si AC est inférieur ou égal au diamètre du cercle de base du cône. Nous verrons à la suite des calculs, comment se traduit cette condition de validité de cette méthode de calcul.
Des calculs déjà effectués, on sait que :
l = sin(  acos( R/(R+h) )  ) * (R+h)
r = sin(  acos( R/(R+h) )  ) * R
l étant la longueur d’une génératrice du cône (OA, OB ou OC), et r le rayon de base du cône, représenté par HB sur la figure suivante:

Cone2.png

Exprimons d en fonction de a et f:
b = f * tan (a)
Exprimons a en fonction de OH, OD, l et r:
a = HÔB – HÔD
sin(HÔB) = r / l
cos(HÔD) = OH / OD
Or OH² = l²-r², donc OH = (l²-r²)^(1/2)
On doit donc déterminer OD.
Si on se place dans le plan des deux génératrices bleues, on a :
cos(CÔD) = OH / OC = OD / l
Or, CÔD = EÔF / 2 et
tan(EÔF / 2) = (c/2) / f, donc
CÔD = atan(c/2f), et donc
cos(atan(c/2f)) = OD / l , et par conséquent
OD = l * cos(atan(c/2f))
Si on reprend les expressions de découpage de l’angle a, on peut alors effectuer le remplacement suivant:
a = HÔB – HÔD = asin(r/l) – acos(OH/OD) = asin(r/l) – acos( (l²-r²)^(1/2) / ( l * cos(atan(c/2f))) )
et comme tan(a) = d/ f, on a alors:
d = f * tan(a) = f * tan( asin(r/l) – acos( (l²-r²)^(1/2) / ( l * cos(atan(c/2f))) ) )
On peut maintenant remplacer l et r par leurs expressions en fonction de R et h:
d = f * tan( asin(r/l) – acos( (l²-r²)^(1/2) / ( l * cos(atan(c/2f))) ) )
d = f * tan( asin((sin(  acos( R/(R+h) )  ) * R)/(sin(  acos( R/(R+h) )  ) * (R+h))) – acos( (((sin(  acos( R/(R+h) )  ) * (R+h))²-(sin(  acos( R/(R+h) )  ) * R)²)^(1/2)) / ( (sin(  acos( R/(R+h) )  ) * (R+h)) * cos(atan(c/2f))) ) )

Avec cette formule, on va alors calculer la dépression de l’horizon à h=30km, pour un rayon de la terre de R=6371km, une focale f=17,2mm et f=34,4mm et un capteur de largeur c=36mm.
Voici l’expression présentée ci-dessus avec une syntaxe conforme au langage Python (prendre soin de faire « from math import sin, asin, cos, acos, tan, atan » avant de faire le calcul afin d’importer les fonctions mathématiques nécessaires):
f=17.2; R=6371.0;h=30.0;c=36.0;f * tan( asin((sin( acos( R/(R+h) ) ) * R)/(sin( acos( R/(R+h) ) ) * (R+h))) – acos( (((sin( acos( R/(R+h) ) ) * (R+h))**2-(sin( acos( R/(R+h) ) ) * R)**2)**0.5) / ( (sin( acos( R/(R+h) ) ) * (R+h)) * cos(atan(c/(2*f)))) ) )

Cette expression nous donne pour Lil Piggy avec 17,2mm de focale à 30km d’altitude une dépression de l’horizon de 0,75mm.
On mesure que l’image de la vidéo fait 460 pixels de large, pour un capteur de 36mm, la dépression doit donc être de 460/36*0,75 = 9,58 pixels.
Pour une focale de 34,4mm, le même calcul donne une dépression de 0,43mm, soit 5,5 pixels.
N.B. Peut importe que le capteur de la GoPro fasse 36mm de large ou pas, car du moment qu’on utilise la focale correspondante, la proportion focale/capteur reste la même.
Attention! Cette valeur n’est valable qu’avec un horizon passant par le centre de l’image, ce qui est très difficile à avoir sur la vidéo de Lil Piggy.

La dépression attendue à 30km pour une  GoPro et un horizon se trouvant au centre de l’image est donc de 5,5 à 9,5 pixels en fonction du modèle de GoPro, et pour une image de 460 pixels de large. C’est exactement ce que l’on constate sur l’image présenté plus haut, avec l’horizon proche du centre. La dépression est de 7 pixels, ce qui confirme cette analyse.

Comme annoncé plus haut, voici la formulation mathématique de la condition de validité de ces calculs : l’horizon occupe toute la largeur du capteur:
En utilisant le schéma dans le plan des génératrices bleues du cône, cette condition de validité s’exprime : AD < r
Or, on sait que r = sin(  acos( R/(R+h) )  ) * R
et dans le triangle AOD on a AD  = sin(AÔD) * OA
et dans le triangle opposé à AOD on a tan(AÔD) = (c/2) / f = c/(2f), donc AÔD = atan(c/(2f))
on remplace alors dans l’expression précédente :
AD  = sin(AÔD) * OA = sin(atan(c/(2f))) * OA
or OA = l = sin(  acos( R/(R+h) )  ) * (R+h), donc:
AD  = sin(atan(c/(2f))) * OA = sin(atan(c/(2f))) * l = sin(atan(c/(2f))) * sin(  acos( R/(R+h) )  ) * (R+h)
On peut alors remplacer les expressions de AD et r dans celle de la condition initiale de validité des schémas utilisés:
AD < r
sin(atan(c/(2f))) * sin(  acos( R/(R+h) )  ) * (R+h) < sin(  acos( R/(R+h) )  ) * R
soit en syntaxe Python:
f=17.2; R=6371.0;h=30.0;c=36.0;sin(atan(c/(2*f))) * sin( acos( R/(R+h))) * (R+h) < sin(  acos( R/(R+h) )  ) * R

Si cette condition est vrai, cela signifie que les conditions d’observation, et donc du calcul de la dépression, mènera vers un résultat conforme aux représentations utilisées. Si ce n’est pas la cas, cela signifie qu’on ne peut plus parler de dépression, car la totalité du cercle horizon sera visible sur la capteur, c’est le cas par exemple si la terre est photographiée depuis la lune, la totalité de la terre est visible sur l’image.

Dans ce cas précis, avec f=17,2mm, c=36mm R=6371km et h=30km, on a bien 447,53 < 616,098, donc le calcul de dépression que l’on vient de faire est valable. Et pour f=34,4mm, on a bien 286,98 < 616,098

Conclusion

La vidéo de Lil Piggy est très bien faite pour induire en erreur.  Comme il n’y a pas d’informations sur les caractéristiques de la caméra utilisée, ni de relevé fiable de l’altitude du ballon, impossible de tirer de conclusion définitives, on doit se contenter de deviner.

Si la caméra utilisée est bien une GoPro, la position de l’horizon par rapport au centre optique a un effet « redresseur » de l’horizon courbe, qui crée cette droite que l’on voit sur presque tout la vidéo. GoPro propose d’ailleurs le logiciel Go Pro Studio pour corriger cette effet déformant, mais il faut pour cela disposer du modèle de la caméra utilisée pour pouvoir le configurer correctement. Cependant, en utilisant Adobe Lightroom, il est possible de corriger l’image présentée tout au début de cet article, en sélectionnant GoPro comme paramètre, et voici ce que cela donne:

FlatHorizonPiggy

Dans tous les cas, cette vidéo ne fournie pas assez d’informations pour conclure quoi que ce soit sur la courbure terrestre, d’autant plus que celle-ci est visible à seulement quelques centaines de mètres au dessus de l’océan, comme on peut le voir sur cette photo prise à 400m d’altitude, à Icod de los Vinos, sur l’île espagnole de Tenerife. La rambarde photographiée ci-dessous servant de référence rectiligne, afin de s’affranchir des déformations de l’objectif:

Rembarde

Publicités

Parmi toutes les choses étranges que l’on trouve sur internet, je me suis récemment intéressé aux personnes qui pensent que la terre est plate, afin de comprendre leur nombreux arguments, mais également comment ils avaient pu arriver à cette conclusion, et s’y tenir aussi fermement.

J’ai discuté avec eux sur Facebook, regardé les vidéos qu’ils partagent, débattu, réfléchi, discuté de nouveau, et appris les choses dont je vais vous parler ici.

La première chose que j’ai remarqué en lisant ce que les « plattistes », comme ils s’appellent eux-même, partageaient, est qu’ils mettent en doute tout ce qui est généralement admis, comme le fait que l’Homme a mis le pied sur la lune. La seconde chose que j’ai noté, c’est qu’ils ont une multitude d’arguments dénotant souvent un manque de connaissance des lois physiques et parfois même géométriques.

Malgré cela, je me suis prêté à l’exercice, non sans à priori je dois bien l’avouer. J’ai employé le doute d’Aristote pour voir si, en n’acceptant que ce qui m’était directement tangible, je pouvais arriver à la conclusion que la terre était plate. Mon à priori était que cela était possible, au prix d’un modèle du monde beaucoup plus complexe que celui de la terre ronde, mais néanmoins valable. Je pensais arriver à une situation semblable aux modèles du système solaire de Ptolémée et Copernic. Les deux permettent de décrire les observations, mais celui de Ptolémée, plaçant la terre au centre, est bien plus complexe, et fait intervenir des forces dont l’existence n’est corroborée par aucune expérience.

J’ai ainsi étudié le modèle de la terre plate proposé par un grand nombre de vidéos disponibles sur YouTube, et tenté de voir si ce modèle était validé par les observations que je pouvais faire depuis la France, sans même avoir accès à la côte (ce qui m’aurait permis de vérifier la courbure de la surface d’une grande étendue d’eau).

Les premiers arguments que j’ai avancé aux plattistes étaient mauvais, principalement parce que ce n’est pas parce qu’un modèle explique correctement les observations, qu’il est le seul valable. J’étais vite submergé par un grand nombre d’arguments montrant que beaucoup de choses que l’on connaît, comme le GPS, peuvent parfaitement fonctionner sur une terre plate. Il ne faut pas oublier que les plattistes remettent tout en cause. Il est par conséquent inutile de débattre avec eux de la véracité du premier pas de l’Homme sur la lune, car si l’on part du principe que les gouvernements Américain et Russe sont complices dans le montage d’une supercherie à l’échelle planétaire, le reste de leur théorie est parfaitement valable.

Après plusieurs discussions sur plusieurs groupes Facebook, ainsi que sur des forums spécialisés, j’en suis arrivé à la conclusion suivante au sujet de la validité de ce modèle.

Le modèle de la terre plate reste valable, bien que très complexe, du moment que l’on suppose qu’il fait nuit sur toute la terre en même temps. Ceci était possible au moyen âge, mais de nos jours, une émission de télévision en direct, un coup de téléphone, ou un échange sur internet suffit à nous prouver que ce n’est pas le cas. Partant de là, le modèle de la terre plate suppose que le soleil reste toujours au dessus du disque terrestre, et cela pose des problèmes pour expliquer qu’il puisse disparaître derrière l’horizon. En plus de cela, les plattistes utilisent les mesures effectuées par Eratosthène pour déterminer la hauteur à laquelle se trouve le soleil par rapport au disque terrestre. Aucun d’entre eux ne remet en cause ces mesures, si bien qu’à minuit à New York, le soleil se trouve à 8500 miles de là, 2400 miles au dessus des Philippines. Si on fait le calcul, cela place le soleil à environ 15 degrés au dessus de l’horizon, à minuit, à New York. Pour expliquer que le soleil ne soit pas visible la nuit, les plattistes introduisent un phénomène de courbure de la lumière par l’atmosphère. Rob Skiba, un plattiste créationniste très actif, notamment sur YouTube, a publié une vidéo. Elle explique comment la déviation de la lumière par l’atmosphère permet de voir le soleil disparaître derrière l’horizon, tout en conservant la même taille apparente, sans pour autant qu’il se  rapproche de la surface de la terre. Malheureusement, cette explication n’est pas conforme aux observations, car si cet effet lentille existait, les avions passant au dessus de nos têtes conserveraient la même taille jusqu’à leur disparition derrière l’horizon, ce qui n’est pas le cas. Certains ont même poussé cette idée jusqu’à la modélisation 3D, mais là encore, le résultat n’est pas totalement conforme aux observations (6:24), car le modèle présente une déformation de objets célestes proches de l’horizon, ce qui n’est pas ce qu’on observe dans le ciel. D’ailleurs, si des plattistes comme Steve et Dr Zack tentent de faire correspondre mathématiquement le modèle de la terre plate aux observations de la trajectoire du soleil, ils se gardent bien de se préoccuper de la taille apparente de ce dernier. L’hypothèse de réfraction atmosphérique qu’ils utilisent ne fonctionne pas. Leurs simulations ne prennent en compte que la position du soleil, et non sa taille, ni sa forme d’ailleurs, lesquelles devraient varier lorsque celui-ci s’éloigne ou s’approche de l’observateur.

Ainsi, le modèle de la terre plate ne parvient pas à être conforme aux observations que tout un chacun peut faire. D’ailleurs, les plattistes ne comprennent pas, ou ne veulent pas comprendre ces incohérences. Leur réponse se résume très souvent à lister un grand nombre de « preuves » que la terre ne peut être ronde, sans pour autant réussir à répondre aux contradictions qu’on leur présente au sujet du modèle de terre plate. La discussion n’est alors plus possible, car ils en arrivent à justifier des observations par des phénomènes qu’ils ne comprennent pas, et qui n’expliquent en rien ces observations. Il m’est arrivé d’être en désaccord avec eux sur des principes de géométries de niveau collège (distance à l’horizon sur un plan), sur la cause de la courbure de la lumière par l’atmosphère, sur des principes d’optique géométrique, et même sur les observations (quelqu’un m’a soutenu que le soleil devenait de plus en plus petit jusqu’à disparaitre en un point lorsqu’il s’approche de l’horizon!). En fait, lorsqu’ils aboutissent sur un incohérence, ils partent sur un autre sujet, ou réfutent les conclusions présentées, même si elles découlent de façon très simple des observations pourtant partagées. D’ailleurs, en fonction du plattistes interrogé, les explications fournies peuvent être différentes. Les plus extrémistes pensent que le soleil se couche dans la mer, ou dans un « endroit boueux », comme le décrit certains textes religieux. D’autres pensent que l’effet de perspective peut faire disparaître le soleil derrière l’horizon, et d’autres encore, plus perspicaces, ont compris qu’il faut que la lumière soit déviée, pour que le soleil puisse sembler se coucher tout en restant au dessus du disque planétaire. Dans tous les cas, leur conviction en faveur de la platitude du monde les empêchent de pousser l’analyse suffisamment loin pour y découvrir les incohérences. Une conséquence de cela est que les plattistes utilisent parfois une hypothèse et son contraire pour appuyer leur argumentation. C’est le cas pour la courbure de la lumière par l’atmosphère. Certains font des expériences optiques au dessus de grandes étendues d’eau pour montrer que la courbure du globe n’est pas celle attendue (ce qui suppose en hypothèse que la lumière se déplace toujours en ligne droite). Cela ne les empêchera pas d’utiliser l’argument de l’effet lentille de l’atmosphère pour expliquer que le soleil peut se coucher tout en restant à la même hauteur au dessus de la terre.

Suite à une première approche purement scientifique des plattistes, j’ai continué à les côtoyer via Facebook, en tentant de laisser de coté mes convictions scientifiques, pour parvenir à cerner l’origine de cette croyance. Je pense, avec les éléments ci-dessous, avoir quelque peu cerné ce phénomène.

Si on exclue ceux qu’on appelle les « trolls », qui ne sont là que pour reproduire le comportement des plattistes sans véritablement croire ce qu’ils disent, la force de la conviction des vrais défenseurs de la terre plate est saisissante. Des heures de discussions ne permettent pas, même avec la plus grande patience et la plus grande pédagogie, de les faire douter de la platitude du monde. Il existe un article très intéressant sur l’inutilité de débattre de telles convictions. Cependant, même en constatant l’inutilité du débat, j’ai cherché la cause de cette conviction. Je pense l’avoir trouvé grâce à cet article et cette vidéo. Cette dernière montre une conférence internationale sur la terre plate. Tous les participants semblent être profondément mal à l’aise avec l’idée de vivre sur une boule perdu au beau milieu d’un gigantesque espace sombre et froid. Même Eugene Cernan, dernier homme à avoir mis le pied sur la lune, lors d’une interview accordée le 11 décembre 2007, témoigne de ce sentiment que l’on ressent, lorsqu’on prend conscience de la place de la terre dans l’univers : « Vous regardez la plus belle étoile des cieux – la plus belle parce que compréhensible, connue, c’est la famille, la vie, l’amour – et qu’en plus, elle est vraiment belle. Vous pouvez voir du pôle Nord au pôle Sud, vous pouvez traverser les continents du regard, et vous la voyez tourner. Il n’y aucune ficelle qui la retient. Et elle se meut dans une obscurité plus noire que l’homme ne peut concevoir. »

La raison profonde de cette croyance en la terre plate me semble venir de là : le refus de n’être qu’un grain de sable parmi tous les grains de sable de toutes les plages et de tous les déserts de la terre. Ce sentiment est tellement fort que la passion prend le pas sur la raison, et empêche alors d’accepter des arguments logiques qui le seraient s’ils ne concernaient pas notre place dans l’univers. La science apporte en effet des réponses, mais pas toujours celles que l’on voudrait.

En conclusion, je retiendrai qu’il est absolument inutile de débattre de la terre plate avec ses vrais défenseurs, car cela ne touche pas à l’analyse ou à la logique, même si leurs arguments en ont l’apparence, mais à notre place au sein de la création, sujet trop personnel pour pouvoir être bousculé. Je voudrais terminer en ajoutant un mot sur les autres complots que l’on trouve sur internet. Je ne saurai trop vous conseiller cette page très instructive sur l’analyse critique. Les outils qu’elle décrit permettent de se faire une idée de ce qu’on voit dans les médias, afin d’apprendre à se faire sa propre opinion en recoupant et en décortiquant les informations, pour en démêler le plausible de la désinformation.

On entend de plus en plus parler ces derniers temps d’une idée qui semble révolutionnaire : le revenu minimum garanti, aussi appelée, entre autres dénominations, Dotation Inconditionnelle d’Autonomie (DIA).

Le principe est simple : mettre en place un revenu minimum pour tous, sans aucun critère d’attribution.

L’idée peut sembler bizarre au premier abord, mais elle s’inscrit dans une logique de sortie du système de consommation dans lequel nous sommes, où il faut produire le plus possible, y compris au détriment du bien être personnel.
Il existe un certain nombre de publications et de vidéos expliquant le principe motivant cette idée de revenu universel,  et tout autant de versions de sa mise en application.

Je vais tenter de vous dresser un schéma le plus simple et ouvert possible de l’une des forme de ce principe, celle de la Dotation Inconditionnelle d’Autonomie (DIA), afin de pouvoir ensuite vous exposer mes questionnements sur sa faisabilité.

Dans sa version  DIA, le revenu minimum garanti prend la forme d’un droit de tirage sur toutes les ressources vitales, comme la nourriture, le logement, les médicaments. Chacun aurait un droit de consommer une certaine quantité de ces ressources, sans avoir de contre partie à fournir. La quantité consommable se veut frugale, le but n’étant pas de vivre confortablement, mais de vivre tout court, à savoir modestement. Il serait possible d’associer une activité rémunérée à ce revenu, sans pour autant le perdre. Cela permettrait d’atteindre un niveau de vie confortable. De plus, il est prévu un Revenu Maximal Acceptable, ou RMA, au delà duquel tout ce que vous gagnerez sera versé à la communauté pour le financement de la DIA. Ce système doit permettre à tous de vivre décemment tout en supprimant les inégalités gigantesques qui existent de nos jours entre les plus hauts et les plus bas revenus de la société. Libéré de la contrainte de devoir travailler pour se nourrir, les gens pourraient alors se consacrer aux activités qui les motivent vraiment. Ils produiraient ainsi de la richesse, mais sans le stress et la pression du monde du travail actuel.

Formulée comme cela, l’idée semble séduisante. On imagine un monde ou chacun est heureux parce que libre d’occuper son temps aux tâches qui lui plaisent. On sortirait alors du modèle consumériste dans lequel il faut absolument gagner de l’argent pour ensuite le dépenser dans des produits industriels fabriqués par des employés sous pression et malheureux.

Cependant, les choses ne sont pas si simples.

Après avoir lu « Un projet de décroissance. Manifeste pour une Dotation inconditionnelle d’autonomie » d’Anne-Isabelle Veillot, Christophe Ondet, Stéphane Madelaine, et Vincent Liegey, j’avais déjà des réserves sur la faisabilité d’un tel système, mais à la lecture de « La vérité sur ce qui nous motive » de Daniel H. Pink, j’ai un nouvel éclairage sur le modèle de pensée moteur de ces conceptions de la société.
Pour résumer, l’ouvrage de Pink s’appuie sur des études scientifiques pour expliquer pourquoi des réalisations comme l’encyclopédie Wikipédia ont surpassé d’autres comme l’encyclopédie Encarta de Microsoft, alors que qu’il est question d’un groupe de bénévoles sans hiérarchie ni revenus, face à un grand éditeur aux moyens financiers considérables. Cette réussite ne cadre pas avec l’idée généralement admise que notre motivation provient du couple carotte et bâton. Pink vulgarise dans son ouvrage l’idée selon laquelle il existe, en plus de ce système de motivation, un second basée uniquement sur une gratification interne à l’individu, une sorte de plaisir d’avoir réussi une tâche, d’avoir surmonté un problème, d’avoir accompli quelque chose. C’est là que l’œuvre de Pink se rapproche de celle sur la DIA, car elles mettent toutes les deux en avant ce type de motivation intrinsèque. Malheureusement, je pense que dans le cas de la DIA, il convient de se pencher plus avant sur le problème posé par les tâches nommées « algorithmiques » chez Pink, et pour lesquelles seuls la carotte et le bâton peuvent motiver à accomplir, du fait de leur pauvreté intellectuelle.
Comment, dans une société libérée de la contrainte de travailler pour se nourrir et se loger, trouver des personnes pour faire les tâches ingrates et néanmoins indispensables à tous? Il faudrait une incitation contraignante mais cependant égalitaire, ou une rémunération conséquente du fait de la pénibilité de ces travaux.
Autre problème posé par le revenu minimum garanti, mais cependant jamais totalement abordé par les défenseurs de celui-ci : le PIB. J’utilise ce terme volontairement à l’opposé du concept économique dans lequel s’inscrit la DIA afin de souligner la persistance de certains principes dans toutes les formes d’économies. Prenez un individu, il a besoin de se nourrir, de se loger, de se soigner. Pour cela, il lui faut une certaine quantité de nourriture, qu’il faut avoir produite, un logement, qu’il faut avoir bâti, des médicaments, qu’il faut avoir fabriqués. Multipliez ces éléments indispensables par le nombre d’individus d’un pays, et vous obtenez une sorte de PIB vital, autrement dit la quantité minimum de richesses à produire pour permettre à la population de vivre. La question qui se pose dans le cas de la DIA est la suivante : Libéré de la nécessité de travailler pour vivre, le PIB que produira cette population libre de contraintes sera-t-il suffisant pour assurer sa propre subsistance?
Cette question est à traitement indépendamment de celles sur la pénibilité de certaines tâches, car il est tout à fait possible que toutes les tâches pénibles soient pourvues, sans pour autant que l’ensemble de la production de la population suffise à sa survie. À  l’inverse, il est tout aussi possible que cette population produise assez, sans pour autant avoir de candidat à l’assainissement des eaux usées par exemple.

Enfin, un autre écueil, et non des moindres, pour la mise en place d’un revenu minimum garanti, tel qu’il est exposé dans l’ouvrage sur la DIA, est la gestion de la transition du modèle actuel vers celui-ci. Dans un monde globalisé comme le nôtre, il est relativement simple de changer de pays afin de bénéficier d’un système plus avantageux. Le RMA fera certainement fuir les grandes fortunes, pourtant nécessaires au financement de ce système. De la même façon, comment assurer la transition entre notre société avec des produits de luxe, et le modèle économique de la DIA, avec aucun bien nettement au dessus des besoins d’un individu (plus de villa de 500m² pour l’usage d’un seul couple par exemple). Devra-t-on spolier les riches et détruire ou transformer leurs biens luxueux pour ne plus avoir de propriétés creusant un abîme entre les possessions des plus riches et celles des plus modestes?

Pour conclure, je souhaite préciser que cet article n’est pas contre le revenu minimum garanti, ni défenseur du système actuel, il a juste vocation à s’interroger sur les alternatives possibles à notre système économique, sans prendre le risque de verser dans un autre extrême, ou de s’emballer pour un modèle semblant plein d’avantages, mais jamais confronté dans les moindres détails à la complexité de la société humaine, et de tous ses rouages qui peuvent, sous peine de les avoir tous examinés et compris, transformer ce qui semble être la meilleur des idées en une erreur lourde de conséquences. Le recul que l’on a aujourd’hui sur la période de la prohibition américaine nous le confirme. Cette mesure, on le sait aujourd’hui, a tuée plus d’américains que la première guerre mondiale.

Le titre de ce post me fait penser à une planche de la BD Calvin et Hobbes. Calvin lui demande de lui faire peur afin de faire passer un hoquet. Hobbes, plutôt que de le surprendre, lui parle de toutes le menaces qui pèsent sur l’espèce humaine.

Si j’ai choisi ce sujet pour un post de blog, ce n’est pas parce que je trouve que le sixième continent, les abeilles, le réchauffement planétaire, la fin du pétrole, le sable, l’eau douce, le modèle économique, et les extrémismes politiques et religieux ne représentent pas un nombre de sujets d’inquiétude assez important, mais parce que j’en ai trouvé un de plus.

Dans la nuit du 2 au 3 septembre 1859, il y a 155 ans jour pour jour, des aurores du type boréales ont été observées dans tout l’hémisphère nord, jusqu’à la latitude du Panama. On pouvait, malgré l’absence de lune, lire un journal en pleine nuit, tant le phénomène était lumineux. Des électrocutions d’opérateurs de télégraphe ont été rapportées, ainsi que plusieurs incendies de stations de télégraphie.

Le phénomène était peu connu à l’époque, l’astronome Richard Carrington a d’ailleurs été le premier à l’observer, car il a détecté des modifications de la surface du soleil avant que les effets ne se fassent sentir sur terre. C’était une éruption solaire, autrement dit une éjection de matière par le soleil, laquelle est projetée dans l’espace, jusqu’à atteindre la terre quelques dizaines d’heures plus tard. Le champ magnétique de la terre en est perturbé, et cela peut induire des courants telluriques dans les conducteurs de grande longueur tels que les lignes électriques ou télégraphiques. Ces courants provoquent des surtensions et des échauffements, d’où les incendies rapporté en 1859.

L’activité du soleil suit des cycles, si bien qu’un tel événement peut se reproduire. Même si l’éruption solaire de Carrigton a été la plus forte de ces cinq cent dernières années, il y a eu en 1989 et en 2003 deux autres éruptions qui ont causé des pannes de courant de plusieurs heures pour des millions de personnes. Nous ne connaissons pas l’intensité des courants telluriques générés en 1859, mais si une éruption de cette ampleur devait se reproduire, la panne de courant pourrait être mondiale, et durer bien plus que quelques heures.

En 2004, 2008 et 2010, des rapports ont été écrit pour le compte des États-Unis, afin d’évaluer l’impact qu’aurait une telle éruption de nos jours. Ces rapports avaient pour sujet les éruptions solaires, mais aussi, et surtout, les attaques par impulsion électromagnétique, qui sont considérablement plus destructrices que les seuls courants telluriques.

Les conclusions de tous ces rapports sont identiques. Les États-Unis ne sont pas préparés.
Et la France? Après avoir posé la question au ministère de l’Ecologie, du Développement durable et de l’Energie, je peux répondre que nous ne le sommes pas plus. La seule différence est que notre pays est plus petit, les lignes électriques moins longues, et donc les courants telluriques y seront moins importants.

Ainsi, que se passerait-t-il si une éruption d’une intensité proche de celle de Carrington se produisait de nos jours?

La NASA observe notre soleil en permanence et en trois dimensions, si bien qu’une éruption solaire serait vue et analysée dès qu’elle se produirait. Selon son intensité, la matière éjectée peut arriver au voisinage de la terre en un à trois jours. Pour une éruption importante, il ne faudra pas espérer plus de 24h avant d’en constater les effets.
Dans un premier temps, les astronautes devront rentrer sur terre de toute urgence, mais cela ne posera pas de problème car ils sont formés à ce genre d’opération.
Ensuite, les particules solaires perturberont fortement toutes les communications radio pendant plusieurs heures. Pour des raisons de sécurité, tous les avions du monde entier devront être au sol durant cette période. En 1959, l’aurore a pu être observée pendant une heure et demi, mais les communications hertziennes seront probablement perturbées pendant plus longtemps, peut-être deux ou trois heures.
Comme au XIXème siècles, des aurores de type boréales seront visibles un peu partout depuis la partie du monde plongée dans la nuit.
Enfin, et c’est le point le plus préoccupant, il faudra certainement arrêter et déconnecter tout le réseau de transport d’électricité afin d’empêcher la saturation des cœurs des transformateurs électriques, lesquels pourraient fondre. Si jamais tel était le cas, ces équipements ne pourraient être remplacés rapidement. Pour un très gros transformateur de 345Kv, le délai de livraison en temps normal est de un à deux ans. Ces équipements étant situés en tête de ligne, la perte de l’un d’entre eux reporte sa charge sur le reste du réseau, et si un autre vient à faillir, c’est la distribution sur tout le réseau qui peut devenir impossible. Pour les structures critiques, comme les hôpitaux, l’électricité devra être produite sur place, à l’aide de groupes électrogènes, afin de limiter le plus possible la distance sur laquelle elle doit être transportée. Il sera conseillé aux particuliers de déconnecter le plus possible d’appareils, afin de fragmenter au maximum les lignes conductrices, car plus un fil est long, plus les courants telluriques sont forts à l’intérieur.
Une fois ces précautions prises, il ne nous restera plus qu’à attendre, à la lumière d’une lampe de poche, ou en plein jour, en espérant que l’électricité reviendra une fois la tempête électromagnétique passée.

Source

Lorsque l’on recherche sur internet des pages pour mieux comprendre la trilogie Matrix, on remarque rapidement deux sites, car il ne sont ni des collections de liens, ni de simples forums au contenu décousu et difficile d’accès.

Le premier est : Matrix, une analyse de la trilogie, une simple page à l’auteur inconnu, et le second : Analyse personnelle de la trilogie Matrix par Neopsi, un pdf de trente cinq pages compilant les résultats de discussions sur des forums de passionnés.

Après avoir découvert le premier site, j’ai voulu revoir la trilogie afin d’en faire ma propre analyse, puis j’ai découvert le second site, je l’ai entièrement lu, et souhaite maintenant vous faire part de mon point de vu sur l’histoire racontée par Andy et Lana Wachowski.

Même si je vais tenter d’introduire les éléments dont je vais parler, je conseille au lecteur de revoir la trilogie avant de lire ce que j’ai écrit, ou sinon de relire ce post après l’avoir revue.

Synopsis de la trilogie Matrix

Nous sommes dans le futur, une guerre a fait rage entre les hommes et les machines. Pour prendre l’avantage sur elles, les hommes ont décidé de modifier le climat de la planète au point de priver les machines de soleil et donc d’énergie. Malheureusement, les machines ont trouvées une source d’énergie pour survivre : l’humanité. Chaque corps humain produit une énergie que les machines utilisent, mais pour garder les hommes captifs, les machines doivent leur faire croire à un monde qui n’existent pas. Pour cela, elles se connectent à leurs cerveaux et leurs systèmes nerveux pour qu’ils perçoivent un monde entièrement généré par elles, ce monde est la matrice. Chaque être humain, de sa naissance jusqu’à sa mort ne voit que ce monde, qu’il prend pour la réalité, faut d’avoir un jour réellement utilisé ses sens. Il ne perçoit que ce que les machines lui envoient. Cependant, on apprend que des hommes et des femmes ont réussi à se déconnecter des machines, et ainsi voir le monde réel. Ils s’y sont échappés pour ne plus être sous le contrôle des machines. Ils se sont regroupés dans une ville sous-terrainne nommée Zion. Ils vivent là dans l’attente d’un élu qui doit mettre fin, selon une prophétie, à la guerre entre les hommes et les machines.

Dans le premier volet de la trilogie, les habitants de Zion trouvent l’élu.
Dans le second volet, guidé par un oracle, l’élu va tenter d’accéder à la source qu’il pense être la solution pour mettre fin à la de guerre entre les hommes et les machines. On apprend que cet accès ne mène pas à la fin de la guerre, mais à un reload de la matrice associé à la destruction totale de Zion. Refusant cette issue, l’élu retourne dans la matrice afin de sauver ses compagnons.
Dans le troisième volet, on assiste au début de la destruction de Zion, jusqu’à ce que l’élu accède à la ville des machines, à la surface de la terre, pour détruire un programme qui s’est multiplié et qu’il semble être le seul à pouvoir arrêter. Suite à cela, l’élu est mené à la source et le reload a lieu, mais Zion n’est pas détruite pour autant car les machines ont décidé de l’épargner.

Les analyses précédentes de Matrix

Je vais commencer mon analyse en citant les éléments auxquels j’adhère dans la première analyse de la trilogie que j’ai mentionnée.

La mère de la Matrice est Perséphone, jouée par Monica Bellucci, et ce pour trois raisons. Ceci s’accorde avec la symbolique de la femme de dieu (l’architecte) retenue aux enfers (le Hell’s Club) par Hadès (le mérovingien). Elle est décrite par l’architecte comme un programme analysant l’esprit humain, or elle perçoit tout de suite le lien amoureux entre Néo et Trinity. Lorsque l’architecte dit qu’elle est en quelque sorte la mère de la matrice, et que Néo lui répond « l’oracle? », il ne récolte qu’un « Voyons » condescendant. Une telle réponse ne peut être formulée ainsi que si Néo se trompe. En effet, l’architecte se comporte de façon condescendante et paternaliste envers Néo, or si un enfant demande à son père « Est-ce qu’on part demain? » et que ce dernier répond « Voyons », ceci signifie que le père est déçu que son enfant n’ait pas saisi l’absolue impossibilité d’un départ le lendemain même, sinon sa réponse aurait plutôt été « à ton avis? », ou un simple sourire devant la satisfaction de voir son enfant si bien comprendre.

Même si l’on voit que c’est l’oracle qui reste au fond du cratère sous la pluie à l’issu de l’ultime combat entre Néo et l’agent Smith, je ne pense pas, après avoir terminé l’analyse que je suis en train de détailler, que l’oracle soit effectivement l’élu précédent le dernier reload. J’en suis arrivé à cette conclusion après la déduction qui suivra que cet ultime combat ne s’est pas produit dans le générations précédentes de la matrice. Pour comprendre cela il faut terminer de lire la présente analyse, mais si ce combat est nouveau pour la matrice, sont issu ne peut servir d’indice pour comprendre le déroulement des reloads précédents. De plus, je pense que l’oracle peut simplement être un programme créé par l’architecte pour guider l’élu à la source, sans pour autant créer un pareil lien entre eux.

La question de la réalité de Zion est soulevée dans toutes les discussions sur Matrix. De mon point de vu, l’intérêt de Matrix est d »être totalement crédible, car si on décide d’y admettre du surnaturel ou de la magie, l’apport de la matrice comme monde où tout est possible car image informatique mise devant nos yeux est totalement perdu. À quoi bon expliquer tant de choses par les effets de l’informatique sur notre système nerveux, pour finalement admettre que même dans le monde réel, un élu peut contrôler des machines par la pensée et voir malgré des yeux brulés? Pour cette raison, je pense que Zion est en fait dans une seconde matrice, nommée jaune sur certains forums à cause de la dominante de couleur que l’on peut y voir. La matrice initiale (la verte, celle dont on voit Néo sortir) est en quelque sorte imbriqué dans une seconde, la jaune, dont personne ne sort jamais, mais dans laquelle Néo a tout de même des pouvoirs (contrôle par la pensée, refaire battre son cœur suite à un baiser de Trinity, voir malgré des yeux brulés, avoir de la lumière jaillissant de la bouche après le combat final avec Smith…). Dans le même ordre d’idée, j’imagine qu’il existe une troisième matrice, sorte de zone de sauvegarde pour programmes lors des reload, destination de l’homme du train et sous le contrôle du mérovingien, qui décide qui des « exilés » pourra y être sauvegardé. Cette zone serait une sorte de pont entre les matrices vertes et jaunes, ce qui explique que Néo s’y retrouve après avoir stoppé net l’attaque de sentinelles dans la matrice jaune. À ce moment d’ailleurs, ses compagnons constatent que son cerveau a la même activité que lorsqu’il est connecté à la matrice verte, alors que ce n’est pas le cas.

Nouveauté de cette analyse : le reload

Beaucoup de questionnements apparaissent dans les analyses de la trilogie que j’ai lues, mais aucune d’entre elles ne se pose cette question : comment se passe un reload pour un simple être humain captif de la matrice verte?

Le déroulement du reload ne fait l’objet que des toutes dernières minutes du troisième volet. Il ne met en scène que quatre personnages, et uniquement des programmes (l’Architecte, l’Oracle, Seraph et Sati). Pourant, son déroulement pose problème pour plusieurs raisons.

La première est qu’il semble qu’une centaine d’années s’écoulent entre chaque reload. Je déduis cela du discours de Morphéus dans la grotte de Zion, et du fait que le temps semble s’écouler à la même vitesse dans Zion et la matrice verte (rien ,dans toute la trilogie, ne semble aller à l’encontre de cette supposition). Ainsi, pourquoi la ville que l’on voit dans la dernière scène de Matrix Révolution, juste après le reload, semble identique à celle juste avant le reload. Si on laisse des êtres humains vivre une centaine d’années dans un monde semblable à celui qu’il était en 1999, il est pratiquement certain que l’aspect de leurs villes aura sensiblement changé entre le début et la fin de cette centaine d’années, or ce n’est pas le cas. Dans le même ordre d’idée, l’homme du train sert à sauvegarder des programmes afin qu’ils ne perdent pas leurs données lors du reload, mais on voit clairement au cours de la scène finale que Sati, la petite fille indienne, est présente dans la matrice verte lors du reload (car tout ce qui est autour d’elle se reforme) et se souvient pourtant de Néo lorsqu’elle s’adresse à l’oracle. Comment peut-elle se rappeler d’événements qui se sont produits juste avant le reload si ses données on été rechargées par celui-ci? Ceci signifie que l’architecte, suite au premier crash de la matrice verte, a créé une image de reload déjà emprunte des événements qui l’ont précédé. Les données rechargées sont ainsi à la fois une sorte de point final et de commencement.

La seconde raison pour laquelle le reload me pose problème est son déroulement pour les êtres humains captifs de la matrice verte. Le « reload », d’un point de vu informatique, est un rechargement de données. Il semble donc indispensable, si on recharge la matrice verte, autrement dit l’aspect du monde visible, de recharger aussi le contenu des cerveaux des êtres qui y vivent. Sinon comment leur faire accepter un changement soudain du monde qui les entoure? On sait grâce à la proposition faite par Smith à Cypher de lui faire réintégrer la matrice sans conserver de souvenirs, que les machines sont capables d’une telle reprogrammation des cerveaux. Cependant, entre un reload et un autre, même si les machines arrivent à conserver exactement le même nombre d’êtres humains captifs, ce ne seront pas les mêmes qu’au reload précédent. Ils n’auront pas le même âge, pas le même aspect physique. Ainsi, si j’ai dans le contenu de l’image à recharger une femme de 56 ans, il va falloir l’intégrer dans le corps d’un individu correspondant, et faire de même pour chaque être humain. On peut imaginer que sur la totalité de l’humanité une telle association est possible, quitte à adapter ensuite l’aspect physique de l’image rechargée à celui de l’individu dans lequel on la recharge.
Si les reloads se passent de cette façon, cela signifie qu’on retourne lors de chacun d’eux aux même conditions initiales : le même monde, les mêmes êtres humains avec chacun leur âge, leurs souvenirs et leur personnalité, puis on laisse s’exécuter le programme jusqu’au prochain reload.

La troisième raison, et non des moindres, concerne la similitude de ce qui se passe dans la matrice entre chaque reload. Si on en croit les insinuations de l’architecte et du mérovingien (« Tu as été plus rapide que les autres »), l’élu vie sensiblement la même chose entre chaque reload, même si quelques différences semblent apparaître. L’architecte dit d’ailleurs que si cette anomalie est inévitable, elle « peut faire l’objet de mesures de contrôle » qui conduisent « irrémédiablement » l’élu à l’architecte. Cette façon de penser est d’ailleurs semblable à cette du mérovingien, lui aussi un programme, dans la mesure où aucun d’eux ne croit au libre arbitre (au choix), mais au seul lien de causalité. Les programmes se différencient ainsi des humains dans toute la trilogie par cette différence :  les humains croient en l’existence de leur libre arbitre, et les programmes sont certains que seules les relations de cause à effet régissent le monde, sans alternative possible. Pour en revenir à la similitudes des événements se produisant entre chaque reload, il semble, et c’est tout l’intérêt de faire un film sur le 6ème reload et non un des précédents, que les autres élus n’aient pas été amoureux. On sait cela de l’architecte lors d’une longue paraphrase dans laquelle il dit que les cinq prédécesseurs de Néo étaient seulement attachés à l’espèce humaine, alors que lui est en plus sujet à l’amour. Cette phrase vient confirmer le fait que pour la première fois dans l’histoire de la matrice, un reload ne se passe pas comme les précédents. La dernière scène vient confirmer cette compréhension car l’architecte y dit à l’attention de l’oracle qu’elle a « joué un jeu très dangereux », dans la mesure où elle a fait prendre le risque de perdre tout l’humanité dans le crash de la matrice si l’élu n’avait pas accédé à la source. Aussi, contrairement aux reloads précédents, cette dernière scène nous apprend que lors de celui-ci Zion n’a pas été détruite, mais que d’autres êtres humains pourront s’ils le veulent être libérés de la matrice verte pour tenter de vivre en paix avec la machines, elles en surface, et eux sous la terre.
Si on suppose ce changement dans les événements survenus entre la cinquième et la sixième génération de la matrice, cela soulève la question de l’agent Smith : que s’est-t-il passé entre lui et l’élu dans la cinquième génération?

Des dires de l’architecte lors de sa rencontre avec Néo, les événements sont devenus différents entre la sixième et la cinquième génération de la matrice lorsque Néo est sortit de la pièce de l’architecte par la porte de gauche et non celle de droite, qui menait à la source. Smith dit plusieurs fois lors de son combat final avec Néo qu’il sait déjà ce qui doit arriver, ou qu’il a déjà vu ce qui est en train d’arriver. On pourrait interpréter cela comme la preuve que ces événements se sont déjà produits dans la cinquième génération de la matrice, mais je pense personnellement qu’il y a une autre explication. Comme le dit l’oracle, elle est capable de voir dans le future jusqu’aux choix qu’elle comprend, tout comme Néo. Or, Smith semble acquérir ces dons de voyance après l' »absorption » de l’oracle. En revanche, Smith donne l’impression de ne pas comprendre se qui se passe lors du combat, car il pose beaucoup de questions : « Pourquoi vous relever? Pourquoi vous battre? ». Ainsi, cette incompréhension explique qu’il ne voit pas l’issue du combat, tout simplement parce qu’il ne comprend pas comment une telle issue, fatale pour lui, est possible. Le « jeu très dangereux » auquel fait référence l’architecte lors de la dernière scène prouve que ce combat ne s’était pas produit lors de la cinquième génération de la matrice, auquel car il aurait été prévu par l’architecte et n’aurait pas constitué pour lui un danger. C’est pour cette raison que je pense que le déroulement des événements prend un chemin inconnu et nouveau lorsque Néo retourne dans la matrice au lieu d’aller à la source. Cette nouveauté ne veut cependant pas dire que tout ce qui s’est produit avant s’est également produit lors de la cinquième génération de la matrice car, comme on l’a vu, l’élu n’était pas amoureux. Trinity n’existait donc sans doute pas dans la cinquième génération.
Ainsi, les événements semblent proches d’une génération à l’autre, sans pour autant être identiques. Par exemple, lors de chaque génération l’élu doit probablement libérer le gardien des clés des mains du mérovingien, car celui-ci a rencontré ses prédécesseurs. En revanche, Morphéus peut tout à fait avoir été une autre personne, simplement la plus enclin à croire aux prophéties de l’oracle, et à mener un groupe de rebelles à la recherche de l’élu. L’émergence de ce dernier n’a d’ailleurs pas besoin d’être sous le contrôle de l’architecte, il sait seulement que cette émergence est inévitable, et utilise l’oracle pour le guider à la source une fois qu’il est apparu. De ce fait, l’élu peut sous simplement être un humain plus doué que les autres pour manipuler les machines, notamment les agents.

Portée philosophique de la trilogie Matrix

Lorsque j’ai vu le premier volet de Matrix, la portée philosophique était évidente : « Je pense donc je suis » de Descartes convient parfaitement à la situation de Néo.
Tout ce qu’il voit et fait n’est en fait qu’une sorte de rêve, généré par la matrice, et la seule certitude qu’il peux avoir, c’est que si il est capable de penser : il existe. Tout le reste n’est que virtuel et fruit de la matrice.

Avec les volets deux et trois, Andy et Lana Wachowski ne se sont pas contentés d’illustrer cette citation, il ont ajouté un autre concept déjà mentionné dans le premier volet : le libre arbitre. Ils l’ont étendu avec un autre thème lui aussi déjà traité par des œuvres de science-fiction : la différence entre l’être humain et les machines.

Le libre arbitre est clairement ce que Andy et Lana Wachowski utilisent pour marquer la différence entre les hommes et les programmes. Il suffit pour s’en convaincre de voir le comportement de Néo, du moment où il avale la pilule rouge, jusqu’à celui où il affronte la multitude de copies de Smith. Il s’attache constamment à sa liberté de décision, et ce même si il admet de plus en plus au cours de l’histoire qu’il a déjà fait ses choix au moment où il doit décider. Par opposition, nous avons les discours de l’architecte et du mérovingien, qui ne jurent (même si la nuance et légère dans leurs propos) que par la causalité, comme en physique, où tout répond à des lois. Ainsi, pour les programmes il n’est pas de choix, seulement un état initial, et une exécution qui produit un résultat, inévitable et prévisible.
Entre eux, le récit semble vouloir nous faire pencher du coté des hommes, car si la causalité faisait loi, à quoi servirait l’oracle? Pourquoi Néo ne serait-il pas retourné à la source juste après sa rencontre avec l’architecte?
Ceci est la preuve que l’architecte admet (après l’avoir constaté) l’existence du libre arbitre, même si il n’opère que dans une certaine mesure car les actions des hommes sont finalement toujours conditionnées par la matrice et ses agents.
Le message de l’oracle, qui dit que nous faisons nos choix avant d’être confronté aux prises de décision, et qu’il nous faut les comprendre pour voir l’avenir, va d’une certaine façon à l’encontre du libre arbitre. Si nos choix sont déjà fait au moment de prendre un décision, sommes-nous vraiment libre? Si la compréhension de ces choix nous permet de voir l’avenir, cela ne revient-il pas à comprendre les lois auxquelles nous obéissons pour ensuite prévoir notre comportement, comme on prévoit celui d’une molécule après avoir cerné les lois auxquelles elle obéit?
Avec ce dogme, l’oracle tire en quelque sorte Néo vers le mode de pensée des programmes, mais en le comprenant. Ce n’est pas le cas de l’architecte, qui se contente d’observer comme le ferait un scientifique, afin d’en tirer une équation représentant le fonctionnement de l’être humain.

La différence entre les hommes et les machines est abordée par le thème du libre arbitre, mais également lors de l’échange entre Néo et Rama-Kandra sur le quai de la station Mobil Ave. Rama-Kandra, un programme, parle à Néo de l’amour qu’il porte à sa fille Sati, ainsi que de son karma. Néo s’étonne de voir un programme parler de sentiments humains, ce à quoi Rama-Kandra répond que ce ne sont que des mots, que ce qui importe est leur sens, sous-entendant par là qu’il est capable d’éprouver un attachement comparable à l’amour, et de posséder une destinée semblable au karma. Ainsi, cette famille indienne laisse au spectateur l’impression que les programmes n’existent pas tous dans le seul but de remplir leur fonctions, mais que la frontière entre les hommes et les machines n’est pas aussi nette. Ce thème est récurrent en science-fiction lorsqu’il s’agit de machines, notamment dans l’œuvre d’Isaac Asimov. Sans aller jusqu’à l’épreuve du sentiment amoureux, le rapprochement entre les hommes et les machines apparaît au moment où l’oracle parle à Néo des exilés : « un programme choisit de s’exiler pour ne pas être désinstallé ». Par ce comportement, contradictoire au fait de remplir une fonction pour laquelle on a été conçu, les programmes se rapprochent de l’homme par la manifestation d’un forme d’instinct de survie. Si on ajoute à cela le rapprochement que les hommes font en direction des machines par la compréhension plutôt que l’exercice du libre arbitre, on obtient une morale plaçant finalement l’être humain assez proche des programmes.

Conclusion

Pour conclure, je vais résumer l’histoire de la matrice à laquelle cette analyse m’a permis d’aboutir.

Suite à la guerre entre les machines et les êtres humains, ces dernières commencent à cultiver l’humanité en faisant vivre les humains dans un monde virtuel fournit à leur terminaisons nerveuses. Les deux premières versions de ce monde, la matrice, sont des échecs car les êtres humains n’ont pas la sensation de pouvoir faire des choix, ils ne croient pas en l’existence d’un libre arbitre. Fort de cette constatation de Perséphone, l’architecte de la matrice en crée une nouvelle dans laquelle les êtres qui refusent le programme peuvent en sortir pour aller vivre dans le monde réel (où la matrice jaune si l’on fait partie des spectateurs qui croient à son existence). Cette possibilité de sortie crée un désordre qui va grandissant jusqu’au moment où la seule solution pour permettre aux machines de conserver suffisamment d’humains captifs et d’éviter une nouvelle guerre, est de supprimer tous les être humains sortis puis de recharger la matrice verte avec une sorte d’image initiale dans laquelle tous les cerveaux humains sont reprogrammés et Zion, la ville humaine du monde réel, réduite à 23 habitants, soit juste ce qu’il faut pour permettre aux hommes d’exercer leur libre arbitre tout en laissant aux machines une bonne centaines d’années avant d’avoir à recourir à un nouveau rechargement. À chaque fois, un des premiers êtres humains de Zion annonce la venu d’un élu qui les guidera vers une issue pacifique au conflit entre les hommes et les machines. Malheureusement, cette croyance n’est là que pour donner un espoir aux habitants de Zion, car l’issue est invariablement la destruction de leur cité et le rechargement de la matrice, de telle sorte qu’il n’y a aucun survivant pour témoigner de cet événement.
Cependant, lors de la sixième exécution de la matrice, suite au cinquième rechargement, les choses se passent différemment à cause de la présence de Trinity et de l’amour que l’élu, Néo, lui porte. Au lieu de revenir à la source comme prévu, et de déclencher ainsi le rechargement, il décide de retourner dans la matrice pour tenter de sauver Trinity ainsi que les habitants de Zion. Ce comportement fait courir un risque à toute l’humanité et sort le déroulement des événement de son cours habituel. Pendant que les machines mènent comme prévu la bataille pour la destruction de Zion, l’agent Smith, un programme assoiffé de contrôle créé par copie en négatif de Néo, étend dangereusement son pouvoir sur la matrice. Il porte ce pouvoir à un tel point que seul Néo peut encore l’arrêter. Comme il est son négatif, leur combat les annulent. De l’agent Smith il ne reste plus alors que l’oracle, Sati et Seraph, deux programmes qu’il avait absorbé, et le code qui, apporté à la source, permettra le rechargement. La matrice survie donc au risque que Smith lui a fait courir. Honorant sa promesse, débarrassé de Smith, l’architecte de la matrice stoppe la bataille de Zion et laisse en paix les survivants. De là commence pour les humains et les machines une nouvelle ère, dans laquelle les hommes et les femmes libres tenteront de vivre en paix avec les machines, même si ces dernières continueront à exploiter ceux parmi les humains qui ne prendront pas conscience de leur servitude et ne demanderont pas à être libérés.

Épilogue : Un scénario pour une seconde trilogie

Après avoir visionné les 9 court métrages Animatrix et discuté avec des amis de cette trilogie, je voudrais ajouter à ce post la mise au jour d’une incohérence dont on m’a fait part (merci Sam) et qui ouvre la voie à une suite.

Le machines ont conservé les humains car ils sont une source d’énergie pour eux. Cela ne tient pas d’un point de vu scientifique. D’où vient l’énergie des être humains? De ce qu’ils mangent. D’où vient l’énergie de ce qu’ils mangent (l’énergie nécessaire aux plantes pour pousser)? Du soleil. Or dans le monde de Matrix il n’y a plus de soleil. Lorsqu’on regarde d’un point de vu physique d’où vient l’énergie exploitée par les hommes, on remonte systématiquement, et avec plus ou moins d’intermédiaires, à seulement trois sources : le soleil (incluant le pétrole, le gaz et le charbon), les réactions nucléaires avec la célèbre formule E=MC², et l’énergie stockée par la terre elle-même sous la forme de chaleur dans son manteau (géothermie) ou de rotation sur elle-même (marée-motrice). Aussi, penser qu’une civilisation de robots capable de creuser à 4km sous terre pour attaquer Zion n’a pas les moyens d’exploiter la géothermie est peu crédible. Pour moi, ceci corrobore  la thèse de la matice jaune : le monde que l’on y voit n’est pas le monde réel, car les machines n’ont en fait pas besoin des humains comme source d’énergie. Par conséquent, on peut se demander pourquoi ils conservent quand même autant d’humains dans une matrice. C’est là que Sam, qui a un bien plus grande culture littéraire que moi, m’a apporté la solution : les machines conservent les humains vivants car ils sont leur créateur. On peut imaginer que pour une raison qui pourrait échapper à l’esprit humain, les machines sont incapables d’imaginer un monde vidé des êtres qui les ont créées. Un peu comme nous conservons des virus dans des laboratoires au cas où cela pourrait nous être utile (cette analogie entre humains et virus n’est d’ailleurs pas nouvelle). De cette façon, les deux matrices verte et jaune ne seraient qu’un réservoir au sein d’un laboratoire des machines. Celles-ci auraient colonisé toute la terre, trouvé la solution pour supprimer les nuages qui obscurcissent le soleil, et conserverait le nombre minimum nécessaire d’humains dans une prison dorée. La matrice n’existerait que parce que les humains n’ont jamais accepté la paix avec les machines, ces dernières ont donc décidé de les garder en captivité. Malheureusement, comme les humains captifs ne survivaient pas, les machines ont dû leur créer cette prison invisible. De cette façon, on peut imaginer que bon nombre d’humains de la matrice verte ne sont en fait que des programmes, et que les seuls vrais humains sont ceux qui prennent conscience de l’existence de la matrice verte et s’en échappent pour rejoindre la jaune. Les deux matrices jouent ainsi le même rôle que les rêves imbriqués. Lorsqu’on se rend compte que l’on rêve et qu’on se réveille, il nous faut du temps pour prendre conscience que c’est en fait un second rêve et qu’on est encore endormi. Ainsi, l’utilisation d’une seule matrice a dû poser problème aux machines car les être humains se rendaient compte trop vite et en trop grand nombre de l’illusion, mais avec deux matrices imbriquées, la centaine d’années entre deux reload est suffisante pour qu’aucun être humain ne prenne conscience que le monde réel est en fait une deuxième matrice. Le discours de l’architecte est ainsi là pour entretenir les humains dans la croyance en l’existence d’une seule matrice, et les destructions précédentes de Zion n’ont en fait été pour ses occupants que des reprogrammations afin de les réintégrer à la matrice verte reloadée. De cette façon, comme à la fin de Matrix Révolutions on apprend que l’architecte va laisser Zion se développer, on peut s’attendre à ce que ces vrais humains prennent conscience de leur captivité dans la matrice jaune et essayent de s’en échapper. Il est possible avec cela de faire une seconde trilogie à Matrix, car la manière de s’échapper de la matrice jaune pourrait être bien différente de celle de la verte, qui n’a d’ailleurs pas été décrite (le premier humain qui est sortie de la matrice verte n’est l’objet que d’une seule réplique dans le premier film). On pourrait imaginer que les êtres humains, après tant de temps passé dans la matrice, soient enfin prêts à faire la paix avec les machines, lesquelles les libèreraient pour les présenter à leur monde. Ils pourraient faire l’objet d’un culte, du fait de leur position historique de créateurs.

Je ne sais pas si Andy et Lana Wachowski passeront par là (j’en doute fort :-), ni si vous, lecteur, déciderez de me piquer cette idée pour tenter de la monnayer à Hollywood (pour cela je pense d’ailleurs qu’il vous faudra un scénario complet et pas seulement ces quelques lignes), mais je trouve l’idée plaisante d’avoir des Matrix 4, 5 et 6 d’ici trois ou 4 ans.

Récemment, lorsque j’ai une nouvelle fois abimé mon parapluie, je me suis rendu compte qu’aucune solution de réparation n’existait, et ce même si le dommage était minime, j’ai alors réfléchi sur ce que le gouvernement pourrait faire pour lutter efficacement contre l’obsolescence programmée.

L’obsolescence programmée est une pratique utilisée de nos jours par les industriels, elle consiste à concevoir les produits de façon à ce que leur durée de vie ne soit pas maximale pour un coût donné, mais limitée, afin que les consommateurs soient obligés de se ré-équiper après quelques années (de 1 à 5 généralement). Nombreux sont les exemples de produits concernés par cette méthode, il suffit pour cela de regarder un reportage tel que celui-ci pour s’en convaincre.

Benoît Hamon, le ministre délégué à l’économie sociale et solidaire et à la consommation, a indiqué dans une interview accordée à au magazine 60 millions de consommateurs qu’il essayerait de lutter contre elle. Mais quelle solution légale pourrait être réellement efficace?

Travaillant moi-même dans l’industrie, et ayant été témoin de cette pratique, je pense que seule une loi détaillée et précise sur l’autorisation de mise sur le marché français de certains produits peut apporter une solution efficace contre l’obsolescence programmée.

En fait, toutes les pistes de lutte sont déjà connues, elle figures dans un rapport de l’Agence de l’environnement et de la maîtrise de l’énergie (ADEME) daté de mai 2012. De mon point de vu, je mettrais l’accent sur la proposition de la fiche 5 de l’annexe 3 : « Évaluer la conformité des produits présents sur le marché ». Je pense qu’il faut tout simplement obliger un grand nombre de produits de consommation courante (électroménager, informatique, appareils électroniques et/ou électriques…) à satisfaire à des normes précises afin de pouvoir être vendus en France. Pour les produits qui entreront sur le territoire par la poste (via les achats par internet), je pense qu’il faut ajouter comme filtre à la douane une vérification de la conformité de ces produits à cette norme, sous peine d’amende pour le consommateur final.

La norme en question devrait prendre la forme d’une série de contraintes telles que celles-ci pour le fabricant, et concerner une liste de produits précise (car ces critères sont à moduler en fonction du produit concerné) :

  1. Le fabricant doit proposer pendant une durée de 10 ans les pièces détachées de l’appareil. C’est le principe de longévité.
  2. L’ensemble des pièces détachées proposées doit permettre de fabriquer un appareil complet (principe de complétude de l’offre en pièces détachées).
  3. Le prix total de toutes les pièces détachées permettant de construire intégralement le produit ne doit pas dépasser de plus de 100% le prix du produit commercialisé monté. Autrement dit, si j’achète mon téléphone en pièces détachées au service après vente, le coût total ne doit pas représenter plus du double du prix du téléphone en magasin. C’est le principe de la marge SAV.
  4. La pièce détachée la plus cher proposée pour un produit ne doit pas coûter plus du quart du produit auquel elle se rapporte. Ceci est le principe de conception par pièce détachée. Si la carte principale d’un produit électronique est trop cher à produire par rapport au prix total du produit, alors elle doit être séparée en deux lors de la conception. Ce principe ne pourra pas s’appliquer pour certains produits mécaniques, car ils peuvent être de conception très simple mais avec une pièce principale très cher et complexe à réaliser par rapport aux autres (ex: le GRIGRI de PETZL). On doit cependant pouvoir appliquer ce principe pour tout système électronique ou électromécanique.
  5. Avec les pièces détachées, le fabricant doit proposer le matériel et les formations nécessaires au remplacement de ces pièces, et ce dans tous les pays où le produit est commercialisé. Le prix de ces formations et de ces matériels de réparation ne doit pas être prohibitif. Ce point et le plus délicat de cette série de contraintes, car il faut définir à partir de quel coût on peut considérer ce prix comme prohibitif. Combien un artisan doit effectuer de réparations avant de rentabiliser son investissement en formation et en matériel? Sachant que le prix d’une réparation pour le consommateur doit être nettement plus intéressant que celui d’un ré-équipement.

Ainsi, avec ces cinq mesures, nous pourrions répondre à la concurrence des industries des pays émergents comme la Chine de façon constructive. En réduisant la quantité de produits sortant des usines nous réduirons notre consommation énergétique ainsi que la pollution associée notamment à l’industrie de l’électronique, l’une des plus polluantes. De plus, nous créerions sur notre territoire une filière tertiaire de l’entretien et de la réparation de biens manufacturés qui serait génératrice d’emplois peu délocalisables, le coût du transport vers un autre pays étant difficile à compenser par la différence du prix de la main d’œuvre, surtout lorsque le produit et volumineux. Enfin, comme le souligne également le rapport de l’ADEME, cette règlementation doit aller de paire avec une sensibilisation et une information du public, car trop de gens préfèrent encore payer 3€ pour un parapluie qui se cassera en moins d’une semaine, que 30€ pour un modèle qu’ils garderont plus d’un an.

Le calendrier maya annonce, paraît-il, la fin du monde pour le 21 décembre 2012. Avec une telle précision (au jour près), on peut penser que cette fin du monde sera brutale, et que plus un seul être humain ne sera en vie le 22 décembre.

Les scientifiques (du moins ceux qui ont du temps à consacrer à cela) ont affirmé à maintes reprises qu’il ne se passerait rien ce jour là, car aucun signe avant coureur ne laisse penser qu’il puisse se produire dans maintenant deux jours une catastrophe telle que l’humanité puisse y disparaître en seulement 24 heures. L’activité solaire comme dans le film « 2012 » ? Impossible et non crédible d’un point de vu scientifique. Une météorite? Elle serait déjà bien visible dans le ciel et ce même en plein jour. Un virus? L’OMS les surveille et aucun ne peut tuer sept milliards de personnes dispersés sur le globe tout entier du jour au lendemain.

Alors, existe-t-il un scénario scientifiquement valable (aussi peu probable soit-il) qui serait compatible avec la destruction de l’humanité en une seule journée?

La réponse est oui, et il y en a même plusieurs.

Le premier, et probablement le plus exotique, est celui de l’ouverture d’un passage entre notre univers et un univers parallèle à cause de phénomènes déclenchés dans ce dernier. La cosmologie autorise l’existence d’univers parallèles, mais les lois physiques étant différentes entre eux, un tel passage mènerait très certainement à l’annihilation des deux univers en une sorte de bouillie post big bang. Ce ne serait pas seulement la fin du monde mais celle de l’univers tout entier.

Le second est plus philosophique car il se rapporte au film Matrix. Imaginez tout simplement que nous soyons dans une telle matrice, le programme nous faisant vivre pourrait décider de tous nous éliminer le même jour.

Le troisième scénario est mon préféré, car selon moi le plus réaliste, si l’on peut se permettre d’employer cette expression à propos d’une croyance basée sur la fin d’un calendrier créé il y a 5125 ans.
Imaginez une civilisation extra-terrestre bien plus avancée que la notre, belliqueuse et avide de conquêtes. La présence de l’humanité dans notre système solaire les dérange. Ils nous ont remarqués sans que nous nous doutions de leur présence, à cause de la grande quantité d’ondes électromagnétiques que nous émettons depuis un demi-siècle. Ils ont décidé pour une raison qui dépasse notre entendement de nous éliminer, et notre planète avec. Ils sont donc arrivés il y a quelques mois dans notre système solaire, à bord d’un vaisseau furtif. Celui-ci n’émet ni ne réfléchit aucun rayonnement. Impossible alors pour nos meilleurs instruments de détecter la présence d’un vaisseau de quelques millions de tonnes dans la ceinture d’astéroïde qui se trouve entre les orbites de mars et jupiter. De là, ils ont armé une sorte d’obus d’antimatière de quelques 1000 tonnes. Cette masse est maintenue hors du contact de la matière par un puissant champ magnétique. Le tout est enveloppé de cette même coque furtive absorbant tous les rayonnements. Le 21 décembre, ils tirent cet obus en direction de la terre, située à une dizaine de minutes lumières. L’obus met la moitié de la journée à nous parvenir, si bien que nous ne le détectons que lorsqu’il se trouve à quelques minutes de l’impact. À ce moment, plus aucune riposte n’est possible, le projectile entre dans notre atmosphère, son enveloppe se disloque, l’antimatière s’échappe de sa prison magnétique et son contact avec la matière libère l’énergie du soleil. Un millier de tonnes d’antimatière délivrerait probablement assez d’énergie pour vaporiser une partie de la croute terrestre et liquéfier le reste. La terre retrouverai ainsi son aspect d’il y a quatre milliards d’années, bien avant l’apparition de toute forme de vie.

Goldman Sachs

18 octobre 2012

Pour ceux qui se sont intéressés aux causes de la crise financière e 2008, le nom de cette banque d’affaire américaine ne peut vous être inconnu.
C’est le Google de la finance, la « firm » que tous ses concurrents prennent comme modèle : Citigroup, JPMorgan Chase, Merrill Lynch, Morgan Stanley.

Après avoir beaucoup vu et entendu sur cette banque, voici les documents que je considère comme remarquables à son sujet, et qui selon moi méritent tout notre intérêt:

« Goldman Sachs – La grande machine a bulles », traduction en français de l’article paru en juillet 2010 dans le magazine Rolling Stone

Reportage de Jérôme Fritel et Marc Roche diffusé pour la première fois sur Arte le 4 septembre 2012 :

Il y a aussi  le très bon documentaire sur les causes de la crise financière de 2008 : Inside Job, de Charles Ferguson sorti le 17 novembre 2010

Inside Job VOSTFR from Chico Murga on Vimeo.

Et pour terminer voici un post très intéressant sur les spéculations à la hausse et à la baisse sur les marchés, car la spéculation la baisse n’est pas une notion évidente à saisir lorsqu’on ne connait pas les mécanismes qui régissent la bourse.

Sachez enfin que la bourse comme les marchés financiers sont des jeux à somme nulle : tout ce qui est perdu par l’un est gagné par l’autre, mais si un grand perd un milliard, il y a fort à parier que les mille petits qui auront gagné un millions chacun n’iront pas le crier sur tous les toits, sauf si ils ne sont pas mille mais un seul, dans ce cas ce milliard apparaîtra au le compte de résultat de Goldman Sachs.

Lorsque l’on suit un peu les débats politiques en France et outre Atlantique, on ne peut ignorer la différence fondamentale qu’il y a dans leurs conceptions de la Liberté.

Au moment du débat public sur la couverture santé universelle aux États-Unis, j’ai été sidéré par certains arguments avancés par les conservateurs, puis j’ai cherché à comprendre comment on pouvait bien en arriver là.

Aujourd’hui, en parlant avec des amis des propos tenus par Warren Buffet ainsi que les français Maurice Lévy et Pierre Bergé, j’ai fait le rapprochement entre ce que j’avais compris à propos du débat sur la couverture santé et la situation économique actuelle.

Voici ce que j’ai compris.

Nous souhaitons tous le bonheur de chacun, et plaidons en la faveur d’un monde meilleur, basé sur un système plus juste. Mais comment obtenir cette justice? C’est là que les opinions divergent.
Que ce soit pour la couverture santé ou le modèle économique, deux visions diamètralement opposées s’affrontent, sans pour autant être extrémistes (bien que j’ai des doutes concernant l’une d’entre elles).

La première, qui selon moi est la plus extrême, est la vision que je qualifierai d’américaine, celle de la liberté, mais une liberté absolue.
Ce que j’ai compris des opinions du Tea Party, farouchement opposé à une couverture santé universelle, c’est que chaque individu est fondamentalement bon, qu’il agit pour le bien de ses semblables, et que de ce fait il doit bénéficier d’une liberté totale. Mais lorsque l’on dit « totale » cela englobe la liberté de faire le mal, de détruire et de porter atteinte à autrui. Ce que disaient les membres du Tea Party, est qu’ils ne voulaient pas qu’on leur impose la manière dont la santé serait prise en charge, ils voulaient pouvoir choisi comment ils financeraient les actes médicaux dont ils ont besoin, et par le choix d’une assurance privée, quelle serait la politique de rembousement des soins. Ce mode de pensé s’applique aussi à d’autres domaines aux USA. Au moment où Georges W Bush a attaqué l’Iraq, des jeunes américains disaient devant des caméras française qu’ils seraient prêt à se battre pour qu’un nouvel Hitler puisse s’exprimer, même si ils étaient aussi prêt à se battre pour l’empêcher de mettre en application ses idées.

La seconde est celle que je qualifierai d’européenne, et qui peut se résumer à cette citation que nous apprenons tous en cours de philosophie en classe de terminale : « Ma liberté se limite à celle d’autrui ».
Celle seule citation n’est pas en soit incompatible avec la vision américaine, si on décide que chacun doit se l’appliquer à lui même. En revanche, si l’on décide que c’est un état ou un gouvernement qui doit l’appliquer à son peuple, on s’oppose de fait à la vision américaine. Aussi, la vision européenne va mettre en place des interdits, des lois, des restrictions afin de garantir à chacun un espace de liberté. Celui-ci sera sur le papier plus petit que dans la vision américaine, mais aussi garanti par l’état. Alors que outre Atlantique l’espace de liberté sera sur le papier infini, il sera en réalité de la taille que l’individu aura réussi à obtenir, autrement dit très grand pour les puissants, et tout petit pour les faibles. Le rêve américain représente d’ailleurs cet aspect : tu peux devenir aussi grand et puissant que tu le souhaites, rien d’écrit n’est là pour t’arrêter, et il ne tient qu’à toi de conquérir l’espace dont tu rêves. C’est pour cette raison également que nos opinions divergent en matière de liberté d’expression. En Europe on ne peut pas tout dire, car certains propos porteraient atteinte à autrui.
Lorsque l’on met en place ces restrictions pour garantir un espace de liberté à chacun, celles-ci peuvent avoir été décidées par le peuple, auquel cas c’est une démocratie, ou par un gouvernement seul, auquel cas c’est une dicature. Cette seconde application de la vision de la liberté que je qualifie d’européenne en est la version extrême, et c’est elle qui est peut être à l’origine de l’aversion qu’il y a outre Atlantique pour sa version modérée.

Jusqu’à maintenant je n’ai parlé que de liberté au sujet des visions américaine et européenne, mais quel est le lien avec le modèle économique?
Un état, lorsqu’il fait des lois, peut réglementer les droits des personnes physiques, mais il peut également leur imposer leur contribution à la communauté sous la forme du paiement d’un impôt. Comme j’en ai déjà parlé dans mon billet sur l’économie, lorsque l’on paye quelque chose, notre créancier s’approprie en fait une partie de notre travail. Ceci est naturel lorsqu’on achète un bien, car du travail a été nécessaire pour le réaliser, il est donc normal que la personne qui nous le vend ait en échange une partie de notre propre travail. Dans le cas de l’impôt, c’est l’état à qui nous versons notre argent, mais c’est pour l’utiliser ensuite au profit de la communauté, selon la structure des institutions en place et le budget qui a été voté pour elles.
Ainsi, l’état, et donc les citoyens, peuvent imposer la création de flux monétaires afin d’en faire bénéficier la communauté. Le volume de ces flux ainsi que leurs champs d’application sont votés directement ou non par les citoyens dans le but de leur faire jouer un rôle d’équilibrage afin de compenser les inégalités.
Sur ce plan aussi, les visions américaine et européenne s’affrontent.

Les américains croient en la capacité du système à s’auto-réguler. Il est donc nécessaire de laisser les flux d’argent circuler librement, ainsi que les citoyens employer comme bon leur semble leurs ressources pour créer des activités. De plus, il semble indispensable que ces créations d’activités soient soumises au jugement d’autres citoyens, qui choisiront de prêter ou non leur propres fonds pour que leur pairs puissent monter une entreprise qui fera travailler d’autres citoyens.
Cette vision du monde, si elle est prise de façon positive, peut être comprise de deux façons. Soit l’être humain est très intelligent et profondément altruiste, soit il existe une entité toute puissante qui possède sa propre volonté et l’applique à l’univers tout entier, que l’on appelle cette entité Dieu ou Nature. Aussi, laisser chacun décider de la façon d’employer son argent, et donc les fruits de son travail, permettrait d’atteindre un équilibre bénéfique pour tous, qu’il soit issu de la pertinence des choix faits par les hommes, où de la régulation opérée par la une entité toute puissante.

Par opposition à ce mode de pensé, je ne placerai pas les européens car nous n’en sommes en fait que très peu éloignés, je parlerai à la place, faute de mot totalement exempt de conotation, d’interventionnisme.
Si l’on ne croit pas en l’un des deux éléments que je viens de décrire pour la vision américaine, on va essayer de mettre en place des mécanismes qui permettront d’obtenir la « justice » dont j’ai parlé au tout début de cet article. Comme l’intervnetionnisme ne croit pas en la capacité de l’homme à savoir ce qui est bon pour lui, il aura recours, pour établir les règles destinées à garantir cette justice, à l’opinion de tous. Cette méthode se base sur l’idée de les hommes sont plus intelligents à plusieurs, mais a surtout l’avantage de ne pas permettre la condamnation de quiconque en cas de mauvais décision, puisque tous les Hommes concernés par cette décision en sont également les auteurs.
Ainsi, l’interventionnisme va utiliser la communauté pour définir les règles qui limiteront la liberté de chacun de ses individus, que ce soit sur le plan économique ou non. Cette communauté va définir des impôts à payer, et des flux d’argent à crée afin d’équilibrer les injustices qu’elle contient. Ce mot de « communauté » n’est d’ailleurs pas très éloigné de celui de « communisme », qui a tellement marqué l’histoire du XXème siècle. Cependant, le concept que je décris ici se trouve bien loin des systèmes totalitaires que ce siècle a connu.

En conclusion, ce que j’ai compris de ces débats politiques et économiques, c’est que la différence d’opinion entre les deux parties qui s’opposent tient sa source au plus profond de nos convictions personnelles : l’existence d’une entité suprême bien au dessus des Hommes, ainsi que la croyance en la bonté et l’intelligence de chacun des êtres humains.

Nous connaissons tous les problèmes que posent les réseaux sociaux actuels sur la confidentialité et la sécurité des informations que nous y mettons, et y sommes plus ou moins sensibles. Facebook s’est vu reprocher la complexité de la configuration de ses paramètres de confidentialité, puis la version par défaut de ceux-ci. Google+ semble mieux loti grâce à son système de « cercles » que Facebook est en train de copier. Diaspora paraît être une alternative intéressante, mais le projet peine à trouver les ressources financières nécessaires pour se développer.

Cependant, aucun de ces réseaux ne garanti ne façon irréprochable la sécurité des informations que l’on y met dessus. Certes il y a ces fameux paramètres de confidentialité pour le partage des informations, mais il y a aussi les bugs qui peuvent laisser nos informations à la porté d’un trop grand nombre de hackers durant des heures et parfois des jours. En plus de cela, même avec des paramètres interdisant à certains utilisateurs d’accéder à nos informations ou contenu privé, sait-on vraiment ce que le propriétaire du réseau fait avec tout ce qu’on lui confie? Max Schrems, étudiant en Droit autrichien, a ainsi appris suite à une demande qu’il a adressé à Facebook que ce dernier avec conservé tout ce qu’il avait fait sur le réseau depuis son inscription trois ans plus tôt, y compris les pages visitées et les messages, photo et publications supprimées.
Dans le cas de Diaspora le problème peut également se poser avec l’hébergeur de notre compte, et la mode des « clouds » ne fait que l’empirer en diminuant le nombre d’hébergeurs en même temps qu’elle fait augmenter la taille de ceux restant.

Enfin, et pour aller jusqu’au bout de cette vision que l’on peut à juste titre qualifier de paranoïaque, tous ces acteurs sont soumis aux lois des pays dans lesquels ils se trouvent. Ils respectent jusqu’à maintenant globalement les droits des individus, mais qu’arrivera-t-il si l’un d’eux tombe sous le joug de la dictature? Les crises financières, l’Histoire nous l’a enseigné, favorisent la montée des partis politiques les plus extrêmes. Avez-vous vu le film « La vie des autres »? Imaginez la même histoire avec des citoyens qui auraient déjà entré sur des réseaux sociaux des milliers d’informations les concernant. Le travail de la STASI aurait été bien plus simple.

Fort de cette constatation, je me suis demandé si il existait une solution pour résoudre ce problème de confidentialité sans pour autant perdre les avantages considérables que nous apportent les réseaux sociaux.

J’ai trouvé cette solution, et la voici.

Tant que nos informations seront dans des machines que nous n’administrons pas, il ne sera pas possible d’accorder une confiance totale en leur sécurité. Même si il est toujours possible qu’un virus ou un malware dérobe des données de notre propre ordinateur, les confier à un cloud reporte la responsabilité de lutte contre le piratage sur des professionnels de l’informatique, mais leur donne du même coup la possibilité d’exploiter ces données à notre insu, et ceci sans que nous ayons le moyen de le vérifier. Tout le monde défend en priorité, consciemment ou non, son propre. Quel est celui d’un hébergeur de cloud? Quel est le nôtre?

Sous réserve d’avoir les connaissances nécessaires pour administrer un ordinateur, avec l’aide de la communauté logicielle internationale pour nous aider à croire en la sécurité du système informatique que l’on utilise, l’endroit le plus sûr pour nos données serait donc une machine géographiquement située chez nous. Comme les réseaux sociaux doivent être disponibles 24h/24, la machine la plus indiquée pour cet hébergement ne serait pas notre ordinateur (d’autant plus que la tendance est aux tablettes), mais l’autre système informatique toujours en fonction dans nos foyer : la box internet.

Un second aspect essentiel d’un réseau social sûr est la maîtrise du partage de l’information. Si je veux que mon ami François puisse voir une image que je publie, il ne faut pas qu’une autre personne puis y accéder, ou même se faire passer pour lui afin de la voir.
Ce problème est largement connu en informatique et des solutions ont été développées pour le résoudre. L’une d’entre elle est le cryptage asymétrique.
Le cryptage asymétrique se base sur une méconnaissance actuelle des propriétés de factorisation des grands nombres. Ainsi, il est impossible aujourd’hui de résoudre certains problèmes mathématiques en un temps de calcul raisonnable, même avec les machines les plus puissantes au monde. C’est cette propriété, ou ce constat sur les connaissances mathématiques actuelles, qui est utilisée pour le cryptage de l’information. Si je veux partager ma photo avec François, et lui seul, je vais y appliquer un calcul qui va la rendre illisible. Ensuite, je vais donner à François par un moyen sûr (impossible à intercepter par un pirate), un code lui permettant de transformer l’image en sa version lisible. Je n’aurai besoin de lui transmettre ce code qu’une seule fois, même si je veux lui communiquer un grand nombre d’images et de contenus. Le code ne sera à renouveller qu’après un certain temps, lorsque le volume d’informations que j’aurais transmis avec sera tel que sa découverte par un pirate deviendra possible avec une puissance de calcul raisonnable. Ce code sera aussi personnel, ce qui signifie qu’une fois cryptée avec le code de François, l’image ne sera plus lisible qu’avec l’aide de son code de décryptage, et personne d’autre ne pourra la lire. Aussi, le partage de données avec une liste d’amis nécessitera le codage successif de ces données avec chacun des codes de chacun des amis de cette liste.

Ainsi, un peu comme je passe mon numéro de téléphone portable, je pourrai sur un tel réseau remettre en personne (via un contact de smartphone à smartphone) un code personnel aux amis avec lesquels je souhaite partager des informations, puis leur envoyer ensuite ces informations en toute sécurité.
Une photo, par exemple, sera prise par mon smartphone, transmise à ma box internet de façon crypté, puis partagée par cette dernière aux seuls amis à qui j’aurai préalablement remis un code de décodage personnel.

Avec un tel système, trois éléments seulement de la chaîne constitueront de potentielles failles de sécurité: l’OS de mon smartphone, le logiciel de ma box, et mes amis.
Pour les deux premiers, soyez sûr que la communauté logicielle du monde entier y cherchera des failles de sécurité, et sera prompt à les dénoncer. Pour le troisième, et bien… cela ne tient qu’à vous d’y veiller.