Dealing with trading issues in the Société Générale

This confidential flowchart from the Société Générale will definitely help us better understand what exactly occurred in January of this year with Jérôme Kerviel. Now that we know he followed the procedure carefully, who’s to blame?

Société Générale Issue Flowchart

For those who may not know, “Oui = Yes” and “Non = No”, the diagram is written in classical Société Générale Franglish.

Mission green : deuxième rapport interne de la Société Générale

Faisant suite au premier rapport de synthèse rendu mi février 2008 (et téléchargeable ici), on lira avec intérêt le deuxième (et dernier) rapport de la Mission green mise en place pour éclaircir l’affaire Kerviel, menée par le très respecté Jean-Martin Folz, ex PDG de PSA et administrateur de la Société Générale, et publié fin mai. Il passe en revue aussi bien les manipulations effectuées par le trader que les défauts de contrôle en interne et de la part des organismes externes. Vous pouvez le télécharger ici au format PDF.

Plus spécifiquement selon el Gosto, il se concentre sur les points suivants :

  • L’activité de JK.
  • Présentation de l’organisation SG.
  • Le trader réussit à cacher son résultat réel, faisant apparaître un résultat « officiel » en comparaison très faible.
  • Les mécanismes de dissimulation utilisés par JK.
  • JK a utilisé des faux e-mails à sept reprises.
  • La chronologie des faits.
  • Résultat des travaux de rapprochement.
  • Une partie significative du résultat déclaré de JK provient de son activité frauduleuse mais nous ne pouvons pas en établir le montant exact.
  • Liste des flux de provisions de plus de 50 MEUR saisis en 2007 et janvier 2008 avec le matricule de l’agent du middle office opérationnel dédié à l’activité de JK.
  • Le départ du précédent manager de JK a coïncidé avec le début de ses prises de positions massives frauduleuses.
  • Trois documents normatifs encadrent l’activité d’un manager de trading.
  • Le montant du résultat de JK aurait dû alerter sa hiérarchie.
  • Une analyse approfondie des informations disponibles relatives à la trésorerie aurait pu permettre de détecter la fraude.
  • Les cas de défaillance des opérateurs sont rares au regard des procédures en vigueur ; en revanche, les opérateurs n’approfondissent pas systématiquement leurs contrôles au-delà de ce que prévoient les procédures.
  • Résultats des investigations complémentaires sur le périmètre de SG CIB.

Préparer sa retraite selon l’Agence France Trésor

Me sentant hautement concerné par la problématique, j’ai accueilli avec une extrême bienveillance cette illustration d’un guide émis par l’Agence France Trésor et visant à former les Français sur la gestion de leur patrimoine via les Obligations Assimilables du Trésor (OAT).

Préparation à la retraite

Voilà ce que voulait certainement dire notre Président avec ses fameux “Il faut travailler plus pour gagner plus” et autres “Libérons le travail” : il ne parlait pas de se prendre la tête à remettre en question les 35 heures, non, il souhaitait en réalité que les Français puissent faire travailler plus efficacement leur patrimoine. Il fallait donc soutenir le capitalisme, fût-il d’Etat. C’est tout de même moins fatiguant comme cela. Et cela rend enfin caduque le dilemme suivant :

Si l’on travaille plus, on va gagner plus. Or si l’on gagne plus, on va travailler moins. Mais si l’on travaille moins, on va gagner moins. Donc si l’on travaille plus, on va gagner moins. Comme si l’on gagne moins on va travailler plus, au final on va travailler plus pour travailler plus.

En effet, si l’argent travaille plus, il va gagner plus, et pourra donc travailler plus pour gagner plus. On va donc gagner plus pour gagner plus, et tout le monde est content. On comprend mieux le bon sens animant notre ami sur le hamac.

Comment constituer un fichier de prospection via Facebook

Tombant sur ce groupe Facebook créé par Transavia, il me vient à l’esprit une idée simple mais certainement efficace, et à ma connaissance pas ou insuffisamment exploitée commercialement. Plutôt que de demander aux utilisateurs de Facebook d’aller s’inscrire sur un autre site pour l’étape cruciale de collecte des données personnelles, souvent rejetée ou détournée par les internautes, il suffirait de créer un vrai buzz directement sur Facebook en instituant pour règle que les gagnants seront tirés au sort parmi les membres du groupe.

Cela serait particulièrement efficace pour inciter ses amis à s’inscrire, dans le cas de Transavia parce que les gagnants sont un groupe d’ami. Sinon, il reste à trouver un moyen d’empêcher le phénomène “Si j’invite des amis ils vont diminuer mes chances de gagner”. Peut-être en passant temporairement en dehors de Facebook ou en créant une application dédiée pour l’occasion, qui sera capable de mesurer le nombre de personnes invitées par l’utilisateur (et lui dire ainsi qu’il augmente d’autant ses chances de gagner).

Une chose est sûre, le résultat, ce sont des utilisateurs qui n’ont pas peur de s’inscrire à un groupe (rapide et inspirant confiance car la seule étape est le clic sur le bouton “join this group”), et pour l’administrateur du groupe (la société à l’origine du concours/buzz, la possibilité quand elle le désire d’envoyer des emails via Facebook à tous les membres du groupe ! Et avec 100% de certitude qu’ils le recevront, aussi longtemps qu’ils tiendront à jour leurs données personnelles sur Facebook (ce qu’ils feront pour la plupart) ! Alors oui, les paranos se désinscriront aussitôt l’email non sollicité reçu, mais je suis convaincu qu’ils ne seront qu’une minorité à faire la démarche. C’est même plus que des adresses e-mail, c’est une communauté de personnes identifiables et remobilisables très simplement pour des campagnes ultérieures.

The beauty and the beasts, ou de l’amour du beau

Je suis tombé sur un article fort intéressant du Washington Post à propos d’une expérience conduite à Washinton DC, où l’un des meilleurs violonistes au monde a accepté de jouer dans le métro avec son Stradivarius…

Le résultat amène à une réflexion certaine sur le beau : en 43 minutes, $32 donnés par 27 personnes sur un total de 1097 passants. Aucun rassemblement autour de l’artiste. Les journalistes ont ensuite interviewé une quarantaine de personnes, ce qui enrichit notablement l’expérience en apportant quelques réponses aux questions que l’on ne manquera pas de se poser.

D’accord, $40 de l’heure n’a rien de ridicule, sauf si on le compare aux $60,000 que facture ordinairement l’artiste Joshua Bell.

Pour ma part, cet article m’a beaucoup touché car j’ai aussi eu l’opportunité, mais durant seulement 1 minutes et 5 secondes, de conjuguer talents artistiques et mendicité à Chicago. C’était en 2004 et, sortant d’un excellent restaurant, je décidai d’attendre mes proches en m’asseyant au coin d’une rue et en chantant de tout mon coeur et de toute mon âme la Chanson pour l’Auvergnat de Georges Brassens. Je fus éblouis par mon succès, la première (et seule) personne me croisant sortit nonchalamment un billet de 1$ qu’elle glissa furtivement dans mes mains entrouvertes (Mon « Premier dollar », « Sou fétiche » que j’ai hélas perdu avec mon portefeuille voilà deux ans, avis à ceux qui l’auraient retrouvé, c’est un billet de $1 en apparence tout à fait banal). Si $1/minute font $60/heure, je me dis aujourd’hui que mes talents me permettraient peut-être, si l’on m’en donnait l’occasion de facturer $90,000 de l’heure pour mes prestations artistiques.

L’article, agrémenté de quelques vidéos, se trouve ici.

La bourse : une affaire rentable ?

Gunther Capelle-Blancard et David le Bris publient sur Télos un article intéressant sur les performances d’un CAC40 reconstitué depuis 1854. Etait-il rentable de suivre passivement le marché ces 154 dernières années ? La réponse est mitigée, vu les inégalités de performance en fonction des périodes. Mais l’on apprend aussi que les placements alternatifs (bons du trésor, or) auraient tout juste permis de compenser l’inflation.

Il semble donc qu’une approche active soit à préconiser pour superformer le marché, en particulier en tirant profit de la volatilité de marchés plus prédictifs comme l’immobilier ou en s’impliquant dans les choix stratégiques des entités recevant les investissements. La Fondation Erwin Mayer publiera une étude sur ses performances d’ici 5 ans. Au programme : créations, participations, fusions & acquisitions d’entreprises pour le plus grand bonheur de la création de valeur et de la croissance.

Telos – 19 Juin 2008
Le CAC 40 a vingt ans. Coté pour la première fois le 15 juin 1988 (avec une valeur de base de 1 000 points au 31 décembre 1987), cet indice depuis a été multiplié par 5, soit une progression moyenne de 8 % par an. Si les dividendes avaient été systématiquement réinvestis, la rentabilité totale aurait été de 11,5 % par an. Alors que les douze derniers mois ont été catastrophiques, une telle rentabilité est plutôt d’ordre à rassurer les investisseurs. À condition bien sûr que le futur soit à l’image du passé…

Les économistes considèrent généralement que pour avoir des estimations robustes, il faut disposer de séries suffisamment longues pour s’affranchir des heurts conjoncturels. David Le Bris a reconstruit l’indice CAC 40 depuis 1854 à partir des archives boursières. Les règles adoptées sont le plus proche possible de celles utilisées aujourd’hui par Euronext. Ce travail permet d’éclairer sous un jour nouveau le débat sur les performances de la Bourse de Paris. Ainsi, un portefeuille de 100 investi en 1854 vaudrait aujourd’hui 5 000. En supposant que les dividendes aient été systématiquement réinvestis, ce portefeuille vaudrait 1,8 millions, soit une progression annuelle moyenne de 6,5 %.

De cette performance nominale doit être déduite une inflation de 5,5 %, limitant à 1 % par an la rentabilité réelle. Il convient toutefois de distinguer deux régimes de croissance. Avant 1914 et depuis 1983, les prix sont stables : les actions offrent une rentabilité réelle totale de 5,5 % sur la première période et de 11 % sur la seconde. En revanche, entre 1914 et 1983, avec une inflation moyenne de 11 %, la performance réelle des actions est de –5 % : les périodes de forte inflation qui suivent chaque guerre mondiale ont laminé les actionnaires.

Quels enseignements pouvons-nous en tirer en ce qui concerne l’évolution future du CAC 40 ? La politique monétaire est aujourd’hui conduite de mains de fer par la BCE et l’inflation semble maîtrisée. On peut donc raisonnablement espérer une performance réelle moyenne au dessus de 5 %. Tabler sur une performance de 11% ? Pourquoi pas, mais c’est très optimiste tant ces vingt dernières années font figures d’exception.

Et qu’en est-il des autres placements ? Sur la période 1854-2008, les emprunts d’Etat offrent (coupons réinvestis) une rentabilité réelle à peine positive. Quant à l’or, il est performant dans les périodes difficiles mais maintient juste le pouvoir d’achat sur la durée. Ce qui est donc certain, c’est que les actions constituent le placement le plus rémunérateur à long terme. Au prix bien sûr d’une forte volatilité.

L’histoire de la Bourse est ponctuée de crises. La première, en 1857, vient (déjà !) des Etats-Unis qui profitent de la guerre de Crimée pour substituer leur blé aux exportations ukrainiennes et importent en masse les biens manufacturés européens. Mais le retour des blés d’Odessa provoque la chute des revenus agricoles américains, la faillite des importateurs puis de leurs banquiers avant de frapper l’Europe. Comme quoi, la mondialisation financière ne date pas d’hier… Le niveau de 1857 est dépassé dès 1879, à l’occasion de la forte vague haussière qui s’interrompt avec le krach de janvier 1882. C’est la faillite de la fameuse Union Générale qui restera dans la postérité grâce au roman qu’elle inspire à Zola, L’Argent. Il faut ensuite attendre 1926, soit 44 ans, pour que le record de 1882 soit enfoncé, mais l’embellie sera de courte durée. En 1929, la France ne connaît pas de krach mais une longue dépression ponctuée notamment par la faillite de la Banque Nationale de Crédit. Se pose alors l’éternel dilemme : « pour sauver les innocents, il faut sauver les coupables » ! La Bourse de Paris ne rebondit ensuite qu’avec la Seconde Guerre mondiale, portée à la hausse par la fermeture des frontières et l’immense émission de monnaie pour payer les frais de l’armée d’occupation. Dans ce contexte, tout ce qui ressemble à une valeur réelle est recherché : les actions comme l’or, les timbres poste ou l’immobilier. Mais la croissance est de courte durée : la Bourse s’enfonce avec le marasme économique de l’immédiat après guerre.

Les nationalisations de la Libération (un tiers des quarante premières capitalisations de 1939 est nationalisé) réduisent nettement la diversification de l’indice et les valeurs pétrolières jouent alors les premiers rôles. Filiale française de la Standard-Oil, Esso, qui est alors la cinquième capitalisation, voit son cours multiplié par dix en 1954 suite à la découverte de pétrole dans les Landes. Le Sud-Ouest ne deviendra pas le Texas français mais c’est l’ensemble de la cote parisienne qui rebondit. Et on est déjà au-delà des 1 000 points ! On entre ensuite dans une longue période de baisse, jusqu’en 1981 où les actions chutent de 30 % avec l’élection de François Mitterrand. Les nationalisations ramènent en janvier 1983 le ratio capitalisation boursière du CAC 40 sur PIB à 2 %, contre plus de 20 % en 1914 et même 36 % lors du sommet de 1882. Avec les dénationalisations récentes et la forte hausse des actions depuis 25 ans, à peine heurtée par le krach d’octobre 1987, ce ratio est aujourd’hui de près de 60 % (avec un pic au-delà de 75 % en 2000).

Il a donc fallu une quarantaine d’années à l’indice boursier parisien pour franchir le niveau de 1882 et une trentaine d’années pour dépasser celui de 1961. Alors, combien de temps le record du CAC 40 de 6 922 points du 4 septembre 2000 tiendra-t-il ?

Un premier modèle de picoprojecteur enfin sur le marché ?

Assurément une technologie qui gagnera à être implémentée dans les téléphones portables et PDA. Allez, je fais un pronostic : d’ici 2020, elle équipera la moitié des appareils sur le marché.

Optoma: un pico projecteur dans une poche
Le groupe spécialisé dans les projecteurs Optoma vient d’officialiser la présentation de son pico projecteur, utilisant la technologie DLP de Texas Instruments.Présenté initialement et en avant première à l’occasion du salon InfoComm2008 à Las Vegas, l’appareil incorpore une batterie et exploite une nouvelle puce DLP Pico, bien évidemment, DLP oblige, développée par Texas Instruments.

Le projecteur portable permet de projeter des images d’une taille comprise entre 50 et 70 centimètres de diagonale, équivalente à celle d’un téléviseur standard. L’appareil peut être transporté librement, même dans une poche de pantalon, puisqu’il pèse seulement 115g.

Exploitant la technologie LED pour la lampe, le pico projecteur affiche un niveau de contraste de 800:1. Selon Optoma, il sera disponible dès la rentrée prochaine sur le marché français.

Source: HD-Numérique
Illustration: Optoma

Le vrai Renaud Donnedieu de Vabres sur Facebook ?

J’ai depuis un moment cet ancien Ministre de la Culture parmi mes contacts sur Facebook, bien que vif pourfendeur de la DADVSI.

Son profil semble sérieux, actif, géré par lui ou des collaborateurs, comme le suggérerait un article sur le sujet de Rue89.

Et demandez à Renaud Donnedieu de Vabres s’il gère sa page lui même, il vous répond. “Vous en douteriez?”

Quelle n’est donc pas ma surprise, ce jour, de voir apparaître dans mon newsfeed une notification pour le moins inattendue :

Après vérification sur la page concernée, ce n’est pas un bug :

Reste donc entière la question de savoir si le compte Facebook de RDDV est un énième profil bidon. Voilà, c’était la news people du jour qui ne sert à rien.

Home, sweet home, an ideal target for industrial spying?

Je considère la sécurité informatique (et la sécurité des informations en général) comme un secteur à très fort potentiel. Que ce soit d’un côté ou de l’autre… Innovation’s coming. Voilà un article intéressant de Spectrum sur le sujet :

Who Might Be Spying On You?

There were three interesting inter-related stories today, one appearing in the Wall Street Journal, one in the USA Today, and the third one in the LA Times. The USA Today story is about the warning being given by national security agencies to business executives and federal officials planning to attend the Beijing Olympic Games on the need for securing their laptops and other electronic devices. These unnamed agencies, it is claimed, are warning that Chinese agents are likely to attempt to steal secrets or plant malware in US visitors electronic devices in order to be able to hack into US computer networks.

As I noted a short time ago, this is thought to have happened to Commerce Secretary Carlos M. Gutierrez’s laptop on a trip to China last year.

The Chinese state that the accusations are baseless fabrications.

The Wall Street Journal’s story is about the increasing demand for counter-spy technology. It says that in April of this year, “car maker Porsche AG disclosed it had found a baby-monitoring device concealed behind the hotel sofa of its president and chief executive Wendelin Wiedeking, last fall during his trip to Wolfsburg, Germany, for meetings with executives at Volkswagen AG.”

By one account, demands for counter-spy sweeps have increased by 25% per annum over the past two years, and that about 10% of the time, something is found.

In addition, as told in the story,

“Companies also are increasingly worried about economic and industrial espionage by foreign governments and companies. Kroll Inc., a risk-control consulting company that is a unit of insurance brokerage Marsh & McLennan Cos. Inc., says inquiries in Japan have doubled in the past year. Associate Managing Director David Nagata, who is based in Tokyo, counsels visitors to have their hotel rooms swept for listening devices prior to check-in and make sure they’re secured from unauthorized entry. For super-secret matters, he suggests closed-circuit cameras to monitor hallway traffic and an alarm that beeps when someone approaches the room.”

The story also notes that in spite of all these elaborate precautions, they’re often “undone by executives chatting on unsecured cellphones with Bluetooth headsets and tapping on unencrypted laptops.”

The best laid plans … which brings me to the LA Times story. This one is about a study released today by Verizon Communications Inc. claiming that two-thirds of the “thefts of sensitive information from corporations occur when the victimized companies don’t know what data they have, where they have it or who has access to it.”

The study also claims that “criminal gangs are targeting individuals inside call centers, because they have access to hundreds or thousands of companies.”

Dans un registre plus prosaïque par exemple, que penser de la protection WEP par défaut des routeurs Infinitum (service ADSL de Telmex) ? N’importe qui peut trouver la clef en moins de 15 minutes (et je parle bien du délai pratique, en théorie cela peut être beaucoup plus rapide). Au menu :

  • Longueur de clef de 40 bits
  • Pas de stratégie d’authentification réelle, puisqu’on peut exécuter une attaque aireplay -1 sans même qu’une station soit connectée
  • Des frames beacons envoyées à tour de bras
  • Un mot de passe du routeur égal au numéro de téléphone de l’abonné

A côté, la “sécurité” offerte par défaut avec toutes les Livebox vendues en France est extraordinaire : rendez-vous compte, il faudra tout de même une petite heure de dur labeur pour trouver la clef WEP par défaut, et accéder ensuite via le simple couple admin/password à l’administration du routeur, et pire, sur http://www.orange.fr, accéder sans même se logguer au compte du détenteur de l’accès Internet.

La sécurité en entreprise c’est bien, mais pourquoi se prendre la tête s’il suffit d’aller sniffer du paquet à la porte de la villa d’un innocent PDG.

Du mauvais rendement de Greenpeace France

Interview avec Frédéric Marillier, chargé de campagne Energie pour l’ONG Greenpeace France. Parue dans le Monde de ce jour.

Mais le nucléaire ne pourrait-il être une réponse en terme de chauffage face à la hausse du prix du fuel ?
Il faut d’abord savoir que le chauffage électrique est une vraie aberration du point de vue énergétique: on fait de la chaleur pour faire de l’électricité pour faire de la chaleur… et le rendement est très mauvais.

C’est la perle de cette interview que je vous laisse découvrir ici. Quand on donne parole à des gens comme cela dans nos journaux, inutile de se poser trop de questions lorsqu’on constate à quel point la volonté générale est amenée à prendre des décisions stupides (cf. le non au référendum en Irlande).
Rousseau, si souvent élevé au rang de grand gourou de la liberté et de la démocratie, doit se retourner dans sa tombe.

“Comment une multitude aveugle qui souvent ne sait ce qu’elle veut, parce qu’elle sait rarement ce qui lui est bon, exécuteroit-elle d’elle-même une entreprise aussi grande, aussi difficile qu’un système de législation ?” Contrat Social, L. II, chap.6, p.380.

Ranking des domaines de premier niveau (TLD) en mai 2008

Domaine Enregistrements Pays
.com 76.063.148 Global Generic
.de 12.024.088 Germany
.net 11.361.663 Global Generic
.cn 11.439.479 China
.uk 6.826.199 United Kingdom
.org 6.761.801 Global Generic
.info 5.041.001 Global Generic
.eu 2.884.199 European Union
.nl 2.702.754 Netherlands
.biz 1.968.075 Global Generic
.it 1.526.208 Italy
.us 1.411.729 United States
.br 1.300.184 Brazil
.ch 1.119.012 Switzerland
.ru 1.243.362 Russia
.au 1.117.393 Australia
.jp 1.009.602 Japan
.fr 1.125.195 France
.ca 1.009.602 Canada
.kr 902.051 Korea
.dk 904.086 Denmark
.es 941.585 Spain
.mobi 898.916 Global Generic
.pl 993.308 Poland
.be 781.997 Belgium
.at 751.867 Austria
.se 725.984 Sweden
.cz 417.376 Czech
.no 383.469 Norway
.nz 328.951 New Zealand
.mx 252.750 Mexico
.pt 211.259 Portugal
.fi 177.835 Finland
.hk 160.336 Hong Kong
.tr 156.358 Turkey
.sk 154.251 Slovakia
.ie 100.997 Ireland
.lt 76.106 Lithuania

Source : http://www.europeregistry.com

Why startups fail

Here is an interesting post regarding some reasons why startups might fail. They can look obvious but any entrepreneur should be aware of them.

Clairvoyance & Simplicité

For those who would be lazy reading the full article (although not that long), I have drawn the following outlines :

  • They spend too much on sales and marketing before they’re ready
  • The market outpaces the startup’s ability to execute
  • There is no Entrepreneur
  • The market takes too long to develop
  • Failure risks are not properly identified

And I would personally add a few more:

  • They fear to meet their market 
  • They wait for their product to be perfect before starting selling it
  • There is no innovation, or it can be copied too easily

Regarding these potential factors of failure, or if properly avoided, factors of success, I wonder where a promising startup company like Goojet will go. Millions of euros have been invested and they have been developing their product for one year and a half, but they only went into public beta a few days ago, while the field is highly competitive and there is a strong need for network externalities (the more people the better), especially since their revenue model is based on a large user base.

Would the best outcome for them be to sell their technology/platform before other players catch them up (and they can make tens of millions that way, which is not bad for a company without clients!), or to meet the challenge and keep on faster with a much more reactive and adaptative strategy? You should not doom a company unless you are shortselling it…

Designez la favicon de Google

Vous l’avez sans doute remarqué, la favicon de Google a changé ! Mais ce que vous ignorez peut-être, c’est que le design choisi n’est pas final, comme en témoigne se post sur un blog officiel de la société (notez que Marissa Mayer n’a jusqu’à présent aucun lien avec la Fondation Erwin Mayer) :

One Fish, Two Fish, Red Fish, Blue Fish

6/06/2008 05:48:00 PM

 

You may have noticed that Google has a new favicon, the small icon you see in your browser next to the URL or in your bookmarks list. Some people have wondered why we changed our favicon — after all, we hadn’t in 8.5 years(!). The reason is that we wanted to develop a set of icons that would scale better to some new platforms like the iPhone and other mobile devices. So the new favicon is one of those, but we’ve also developed a group of logo-based icons that all hang together as a unified set. Here’s the full set:

The design process we went through was rigorous and interesting, so we thought we would share more of it here. We tried in total more than 300 permutations. It was much harder than we thought at first. We wanted something distinctive and noticeable, so we aimed toward transparency or semi-transparency, so the image would have a more distinctive noticeable shape than just a block. We wanted something that embraced the colorfulness of the logo, yet wouldn’t date itself. Since we don’t really have a symbol that means Google, we felt it best to work with the logo and letters within it. Our design team tried literally hundreds of approaches. You can see some of our explorations here.


By no means is the one you’re seeing our favicon final; it was a first step to a more
unified set of icons. However, we really value feedback from users and want to hear your ideas that we may have missed. If you have your own notions about the Google favicon, please send them to us. We’ll do our best to work them in, and maybe your idea will be the one that people see billions of times per day.

Il vous est donc possible de peut-être mettre à contribution vos talents d’artiste sur la grille 16×16 de paint, et d’inventer le Google de demain. Mais lisez bien les conditions avant !

La soumission se passe par ici. On ne peut que se réjouir de voir Google prendre au sérieux le design. Je trouve personnellement que c’est aujourd’hui leur principal point faible (la sobriété est très appréciable mais l’on aimerait parfois un peu plus de libertés). Il y a pire comme point faible cependant ! Je ne citerai pas encore des entreprises dont je suis client et qui ne savent pas coder dignement en Javascript ; celles-là méritent de loin un plus cruel châtiment !

Google en ligne de commande

Les API réservent parfois bien des surprises. Si le GUI du site est agréable, il ne reste plus qu’à tester aussi depuis un terminal classique pour voir si cela fonctionne (à part les images sans doute). Et il ne manque plus que quelques liens publicitaires dans les résultats de recherche.

Tout bon geek qui se respecte devrait être intéressé, sinon amusé par le nouveau site goosh.org, mis en ligne par Stefan Grothkopp, un développeur allemand indépendant. Ce site permet en effet de taper des requêtes google en ligne de commande, comme on le ferait dans un terminal Unix ou dans une fenêtre MS-DOS, via un language de script.
Ainsi pour faire une recherche sur le mot télécharger, au lieu d’utiliser le moteur de recherche Google, on peut désormais se rendre sur goosh.org et taper télécharger à l’invitation. Comme pour toutes les autres requêtes, goosh présente les quatre premiers résultats renvoyés par google.

Aux « aficionados » de la ligne de commande

Vous vous demandez à quoi cet outil peut-il bien servir ? Pas à grand chose sinon qu’il offre aux aficionados de la ligne de commande, un moyen sympathique d’accéder à Google.
Il permet aussi d’accéder à l’ensemble des fonctions de Google à l’aide d’une seule fenêtre, moyennant la connaissance de quelques commandes. Si l’on tape « images roses », Goosh proposera les quatre premiers résultats renvoyés par Google Images. Si l’on tape « news Sarkozy », Goosh proposera les quatre premiers résultats renvoyés par Google Actualités sur Sarkozy et ainsi de suite. Pour avoir la liste des commandes, il suffira de taper « help » à l’invitation du prompt.
A noter que la commande « wiki » suivie d’un mot clé permettra d’accéder aux résultats de Wikipédia concernant ce mot clé. Signalons aussi la présence de la commande « addengine » qui permet d’ajouter Goosh dans la liste des moteurs de la barre de recherche de Firefox.

Le « shell Google » non officiel

N’étant pas un produit développé par Google lui même, Goosh se présente comme le « shell Google non officiel ».« Je n’ai fait qu’utiliser l’API que propose Google et je pense que je respecte leurs conditions d’utilisation mêmes si certaines sont un peu vagues. Je ne sais pas si Google est au courant mais cela ne devrait pas leur déplaire, indique Stefan Grothkopp, J’ai démarré ce projet au début pour des besoins personnels parce que j’aime utiliser les lignes de commande ». 01net.com

L’escargot et le TGV

Ce pourrait être une fable, mais ça n’en est point.

Début mai, un jeune homme originaire d’Arles se trouve dans un TGV avec des escargots dans une boîte. Ils sont vivants. Le voyageur est un instituteur qui destine les gastéropodes pour une “leçon de choses” pour ses élèves de maternelles. Une contrôleuse passe et elle demande au propriétaire des mollusques de payer un billet de 5,10 euros pour ses compagnons de voyage.

Comme pour un chat, un chien ou un canari, l’agent a en effet “appliqué le règlement” qui exige un billet pour tout animal de moins de 6 kg transporté dans un sac ou un panier. Pour les animaux plus gros, il faut payer un billet demi-tarif.

L’affaire est révélée dimanche dans La Provence et rapidement reprise dans les autres médias. Face au battage médiatique entourant cette amusante anecdote, la SNCF a décidé de rembourser les 5,10 euros, même si elle estime que ces gastéropodes sont tenus de payer leur place à bord comme tous les animaux domestiques. TF1 – Il voyage avec des escargots, il doit payer un billet

Et un commentaire fort bien placé de Rémy, Dijon :

Depuis quand un escargot est-il un animal domestique ? Paiera-t-on bientôt une amende pour la tranche de jambon dans un sandwich transportée par un voyageur ?

Terminons avec une petite image qui parle d’elle-même, fort appropriée pour l’occasion… Ils étaient pourtant faits pour s’entendre.

Ils sont fait pour s\'entendre

Gordon Moore: The Accidental Entrepreneur

Je viens de lire un article autobiographique de Gordon Moore publié sur le site officiel de la Nobel Prize Foundation, particulièrement intéressant quant aux enseignements de cette fabuleuse épopée à Fairchild et Intel :

J’ai relevé ces conseils hautement profitables pour toute start-up ambitieuse :

  • Constituer une équipe de personnes talentueuses capable d’innovations.
  • Penser “produit” dès le départ : qu’est-ce qui au final va bien pouvoir parvenir au consommateur ?
  • Mettre en place une organisation complète (R&D, fabrication, vente) dès que les premiers prototypes sont fonctionnels, en maintenant un lien fort entre les trois départements.
  • Anticiper les conséquences à moyen terme de l’emprise potentielle des investisseurs sur le core business et la vision de l’entreprise.
  • Lier les personnes clefs à l’entreprise pour ne pas risquer de les voir partir en emportant avec eux une part significative de la valeur ajoutée de l’entreprise.
  • Fonder son avantage concurrentiel sur des technologies suffisamment complexes pour laisser le temps à l’entreprise de grandir avant que les concurrents ne la copient ou ne la retrouve. A défaut de savoir à l’avance si le succès sera au rendez-vous, travailler sur un portefeuille de technologies, et les évaluer régulièrement pour déterminer lesquelles méritent une focalisation des ressources.
  • Mettre en place des réunions en face à face avec chacun des employés, durant lesquelles ce sont ces derniers qui déterminent l’ordre du jour et font avancer l’entretien.

Et ces passages que je préfère laisser verbatim.

From the beginning at Intel, we planned on being big. Since we had already been fairly successful at Fairchild, anything less successful in our new venture would have been a disappointment. So, at the very beginning we recruited a staff that had high potential and that we thought would be around to run the company for some time. This is an opportunity that many start-ups miss. There is no better chance to train managers than in a start-up, where they have the opportunity to see the entire company as it grows. It starts small and simple; one can see all the operations as they get bigger. I think that people looking at start-ups, venture capitalists in particular, ought to push very strongly not to squander the opportunity to develop management during that time period.

(…)

Another thing we had learned along the way was to raise money before we needed it. One thing you find out after a little bit of experience as an entrepreneur is that the bank will lend you money as long as you don’t need it. You can sell stock as long as you really don’t have to. With good advice from directors such as Arthur Rock, we have always had plenty of capital on hand, so that we haven’t been hindered in our ability to raise more.

Vous trouverez l’article au complet sur le site de la Nobel Prize Foundation, ainsi qu’une interview de Gordon Moore datant de quelques jours sur le toujours très excellent Spectrum.

120V vs. 230V : un concours d’électrocution

Tout a commencé par une question simple : pourquoi 230V ?

Je ne pouvais par la même occasion m’empêcher de me demander : pourquoi est-ce le double que les Etats-Unis ? Pourquoi les tensions électriques domestiques diffèrent-elles suivant les zones géographiques ?

Tensions électriques domestiques dans le monde

Tensions électriques domestiques dans le monde

Chronologiquement, il fallait d’abord se pencher sur le cas des Etats-Unis et a fortiori de l’Amérique du Nord pour trouver quelle fut la première tension électrique domestique choisie, et pourquoi.

“The penalty of leadership”

Les pionniers ont le privilège du choix, mais aussi l’impossibilité de se baser sur l’expérience pour le rendre optimal. Il semblerait que les Etats-Unis en aient ici fait les frais. L’histoire montrera que cette formidable capacité à innover ne les a pas toujours desservis : les récentes avancées dans le domaine des voitures électrique (avec Tesla Motors), les bases du réseau Internet qui permettra l’avènement de sites comme Google ou Comparavel, sont là pour en témoigner.

L’électricité était tout d’abord destinée à l’éclairage, via les ampoules mises au point par Thomas Edison (alias sa société General Electric), ainsi qu’aux moteurs. C’est ce même Edison qui déploya les premiers réseaux de courants continu (DC) suite à l’obtention d’un brevet en 1882. Ceux-ci avaient pour particularité d’être constitués de générateurs alimentant un réseau de distribution formé d’épais câbles conducteurs, et jamais distants de plus de 1 ou 2 kilomètres des clients. L’ensemble du réseau fonctionnait avec la même tension que celle appliquée aux bornes des appareils électriques finaux. Une lampe de 100V était ainsi reliée à un générateur de 110V, les 10V supplémentaires étant généralement perdus durant le transport. Le voltage (anglicisme pour tension électrique) était donc choisi en fonction des besoins des appareils connectés, en l’occurrence principalement les lampes. Celles-ci avaient été spécialement conçues pour que les filaments de carbone supportent une centaine de volts, afin de fournir un éclairage performant mais surtout compétitif face aux traditionnelles ampoules à gaz. 100V n’étaient en outre pas considérés comme présentant un risque majeur d’électrocution pour les utilisateurs.

Le système de distribution était de type monophasé 3 fils (3-wire, single-phase, mid-point neutral system) à +110V, 0V et -110V, devant ainsi permettre de réduire la quantité de cuivre utilisée à intensité constante. Cependant, cela ne répondait pas à la question de fond. En effet, ce système revenait à répartir l’intensité entre le + et le -, chaque fil ayant une tension absolue de 110V. Avec un seul fil transportant le courant et de tension 220V, la perte est de P = RI² (car P = UI et U = RI), P étant la puissance (donc multipliée par une durée pour obtenir le nombre de joules dissipées), U la tension, I l’intensité et R la résistance du fil. Avec deux fils, la perte est de P = R_2*(I/2)²+R_2*(I/2)² = R_2*I/2. Si R_2 = R_1, on a bien R_2*I²/2 < R_1*I², mais on utilise deux fois plus de cuivre !
Pour diviser au moins par deux la quantité de cuivre utilisée (le câble peut être assimilé à un cylindre), à longueur constante, il faut diviser le diamètre des câbles au moins par la racine carrée de 2.
Or, la résistance d’un fil est inversement proportionnelle à l’aire de sa section, c’est à dire au carré de son diamètre (si le fil a une section circulaire). Par conséquent, à longueur constante, si l’on divise le diamètre de chaque câble par la racine carrée de 2, on multiplie par 2 sa résistance et ayant ainsi R_2 = 2*R_1, on a finalement R_2*I²/2 = R_1*I², c’est-à-dire aucun gain par rapport à un système monophasé 2 fils.

Toujours est-il que les lampes pouvaient fonctionner entre soit +110 soit -110V et le conducteur neutre à 0V, ce dernier ne servant qu’à transporter la différence de courant entre les sources + et – (unbalanced current).

Malgré cette supposée innovation d’un système monophasé 3 fils (dont je ne vois pas l’intérêt), la perte de tension liée à la résistance des fils de cuivre était si haute que les générateurs ne pouvaient être à plus d’1 mile de la charge. Et des voltages plus importants ne pouvaient pas être si facilement utilisés avec le système de courant continu (DC), défendu par Edison durant la Guerre des courants, car il n’existait tout simplement pas de technologie efficace et à prix raisonnable permettant de réduire significativement la tension (transformateur).

Suite à la victoire in extremis de Westinghouse et Nicola Tesla (voir ici les détails de cet épisode épique de l’histoire de l’électricité), instituant le règne du courant alternatif (AC), le paysage électrique américain changea significativement. Un des principaux avantages du courant alternatif était de pouvoir facilement transformer un très haut voltage en un bas voltage, et donc de permettre le transport de l’électricité sur des grandes distances à très haut voltage (jusqu’à 765kV sur certaines lignes) avec des pertes bien moindres (divisées par le carré de l’augmentation du voltage, à courant constant, d’après la loi d’Ohm U=RI²). Mais malgré la préconisation de Tesla d’utiliser un voltage de 240V (suite à des recherches théoriques), presque suivie (220V) par la plupart des pays d’Europe (qui en étaient encore aux balbutiements de l’électricité et ne faisaient donc pas face à un coût rhédibitoire), aux Etats-Unis il était déjà trop tard pour changer la tension domestique de 120V (au total 240V) mise en place par Edison et pour laquelle tous les équipements ménagers avaient été conçus.

On notera toutefois que Westinghouse suivit la recommandation de Tesla concernant la fréquence utilisée (60 Hz, c’est à dire 60 changements de sens du courant par seconde), qui avait été auparavant méprisée par Edison pour lequel Tesla travaillait. Malgré ses 220V (étant aujourd’hui devenus 230V pour réduire encore les pertes et dans un souci d’harmonisation européen), l’Europe et bien d’autres pays n’ont hélas pas adopté cette fréquence, une juste revanche pour les Etats-Unis, vu les conséquences significatives de ce mauvais choix.

When the German company AEG built the first European generating facility, its engineers decided to fix the frequency at 50 Hz, because the number 60 didn’t fit the metric standard unit sequence (1, 2, 5). At that time, AEG had a virtual monopoly and their standard spread to the rest of the continent. In Britain, differing frequencies proliferated, and only after World War II the 50-cycle standard was established. A mistake, however.

Not only is 50 Hz 20% less effective in generation, it is 10-15% less efficient in transmission, it requires up to 30% larger windings and magnetic core materials in transformer construction. Electric motors are much less efficient at the lower frequency, and must also be made more robust to handle the electrical losses and the extra heat generated. Today, only a handful of countries (Antigua, Guyana, Peru, the Philippines, South Korea and the Leeward Islands) follow Tesla’s advice and use the 60 Hz frequency together with a voltage of 220-240 V. Source

Cela étant, les Etats-Unis peuvent tout à fait obtenir du 240V de leurs prises électriques. La plupart des climatisations, frigidaires, et autres appareils grands consommateurs d’électricité sont ainsi reliés aux deux fils de 120V et -120V (soit 240V de différentiel), plutôt qu’à l’un des deux et au neutre. Les appareils peu gourmands quant à eux se satisfont d’une tension de 120V (source). La plupart des appareils européens nécessitant un transformateur AC/DC (ordinateurs portables, lampes halogènes…), puisqu’ils ont de toutes façons un boîtier dédié à la transformation du courant, acceptent généralement le 120V et le 50Hz. Mais ce ne serait probablement pas le cas d’une machine à laver.

Quant aux prises américaines délivrant une tension de 240V, il n’est pas conseillé de brancher des équipements européens dessus car le système de 240V aux Etats-Unis est réparti sur 2 fils de tension opposée contre 1 seul de 230V en Europe (source, une justification théorique serait cependant bienvenue). Attention, malgré cette séparation en deux fils autour du neutre pour le système américain, il reste cependant bien monophasé (2 fils n’impliquent pas du diphasé). D’ailleurs, en Europe la tension maximum disponible est en réalité de 400-460V (230V sur chaque fil) ! Pour l’exploiter (par exemple dans le cas d’une pompe à chaleur), il est généralement nécessaire de passer en triphasé, c’est à dire demander un raccord à l’opérateur d’électricité sur 3 phases et adapter son système électrique domestique en conséquence. Un dispositif vorace pourra ainsi être branché sur 2 phases (différentiel de 400-460V) plutôt que sur une seule et le neutre (différentiel de 230V) (Source).

3-wire monophase system in the USA and in Europe
3-wire monophase system in the USA and in Europe

Dans quelles prises électriques est-il le plus conseillé d’insérer ses doigts ?

Ayant donc constitué une réponse satisfaisante à ma question initiale, et appris de nombreuses choses au passage sur les générateurs et autres sujets liés de près ou de loin (Tyrannie des liens hypertextes), je me devais alors de répondre définitivement à un nouveau problème pour lequel je fus surpris par la pléthore d’informations souvent spéculatives, incomplètes ou erronées : le 120V est-il moins dangereux que le 230V ?

Vous comprendrez qu’un “oui” ou un “non” ne sont pas de nature à combler ma curiosité, pas plus que le fait d’insérer mes doigts dans la prise de courant mexicaine 120V à 40 cm de mon clavier d’ordinateur (mes doigts sont trop gros de toute façon).

Dans mon infinie miséricorde, je vais vous épargner tous les arguments spécieux en faveur du 120V, et vous exposer mes conclusions, que j’espère n’être ni spéculatives, ni incomplètes, ni erronnées. Peut-être sauverai-je ainsi des vies ;-).

Encore une fois, nous partirons de la loi d’Ohm. Nous savons que lorsqu’un humain relié à la terre touche un conducteur électrique de tension U, la tension traversant son corps est précisément de U. En revanche, le courant le traversant n’est pas nécessairement égal à l’intensité I du conducteur. Comme pour n’importe quel appareil électrique, le courant “tiré” (drawn) du circuit est dérivé de U = RI, où R est la résistance des appareils électriques jalonnant ce circuit. On a I = U/R. Ce qui est sûr ici, c’est que le courant “tiré” ne peut être supérieur à I.

Si la fréquence d’inversion du sens du courant alternatif (50 Hz en Europe, 60 Hz en Amérique du Nord et dans quelques autres pays) est particulièrement néfaste du fait de son entrée en résonance avec le système nerveux, les effets ne varient pas significativement pour 10 Hz de différence (même si 60 Hz est considéré comme plus dangereux). On notera simplement qu’avec un tel courant alternatif, la fibrillation cardiaque peut advenir avec un courant aussi faible que 60 mA, contre 300 à 500 mA pour le courant continu (source). C’était l’un des arguments mis en avant par Edison lors de la Guerre des Courants, allant jusqu’à électrocuter des animaux sur la place publique pour prouver la dangerosité de l’AC, et rebaptiser le terme “électrocuté” en “westinghoused”.

Grâce à la relation I = U/R, et sachant que les dommages subis par un organisme électrocuté augmentent avec l’ampérage le traversant, il ne nous manque plus que R (résistance du corps, fixe) pour calculer I en fonction des différents voltages. Selon des sources concordantes, celle-ci varie entre 1 000 Ohms (peau humide), 10 000 Ohms (peau sèche) et même jusqu’à 100 000 Ohms (peau très sèche).

On obtient ainsi le tableau suivant :

Tension

Intensité de courant traversant le corps

I si R = 1 000

R = 10 000

R = 100 000

120V

120 mA

12 mA

1,2 mA

230V

230 mA

23 mA

2,3 mA

On remarque immédiatement que l’intensité I disponible a en réalité peu d’importance pour évaluer le danger des prises électriques. En effet, même si l’intensité délivrée par le 230V est environ deux fois inférieure à celle délivrée par du 120V, l’ordre de grandeur est toujours l’ampère (A) voire la dizaine d’ampères, ce qui équivaut quasiment à un courant infini disponible pour s’électrocuter (il suffit de quelques dizaines de milliampères pour subir une électrocution létale, ce qui est bien en-dessous du courant disponible, aussi bien avec le système 120V que 230V). Au mieux peut-on peut-être penser qu’avec du 230V, l’ampérage disponible (10A pour une installation domestique standard) serait insuffisant pour tuer un pachyderme à la peau épaisse. Pour l’homme, ce n’est donc pas parce que la division par deux de la tension sur le réseau est compensée par le doublement de l’ampérage disponible que la quantité d’énergie absorbée en cas de choc est identique. On évince là une des assertions spécieuses avancées par de nombreuses bonnes volontés.

Ainsi, pour un ampérage disponible sur le réseau dans les deux cas bien supérieur au courant létal, le 230V est dans l’absolu deux fois plus dangereux que le 120V. Dans la pratique, il convient bien sûr d’apprécier l’effet de seuil (Source) :

Courant électrique (mA)

Effet physiologique

1 mA

Seuil à partir duquel un choc est ressenti, douleur

5 mA

Seuil maximum de courant non dangereux

10-20 mA

Contraction musculaire soutenue. Impossible de lâcher le câble par exemple.

50 mA

Interférences ventriculaires, difficultés respiratoires

100 300 mA

Fibrillation ventriculaire. Létal.

6000 mA

Contraction ventriculaire soutenue suivie d’un rythme cardiaque normal.

Ce sont les paramètres d’un défibrillateur cardiaque. Paralysie respiratoire temporaire et brûlures internes possibles

On peut donc en conclure que si globalement le 120V limite les risques d’électrocution mortelle (dans le cas d’une peau suffisamment sèche), cela ne reste probablement qu’un effet positif statistique, et ne saurait encourager les utilisateurs à moins de prudence avec du 120V qu’avec du 230V. D’autant que les dommages physiologiques dépendent en grande partie de la durée de contact avec le conducteur ! Si votre main, même relativement sèche, enserre un câble américain pendant 10 secondes, vous aurez très certainement la chance de pouvoir vous plaindre directement auprès de M. Edison !