Quelles perspectives pour la France ?

Je me permets de vous inviter à lire cette chronique pleine de bon sens de Nicolas Baverez, tant on aimerait que les éléments mentionnés soient pris en compte par l’exécutif français. A défaut, je ne donne pas cher de ce pays pourtant si prometteur.

Etant expatrié, je vois d’autres problèmes ailleurs, mais ceux de la France ne me paraissent que plus aigus lorsque je vois avec quelle aisance d’autres pays mettent en place des solutions évidentes.

Après, quant à savoir jusqu’où le peuple français serait prêt à accepter ce bon sens et ce courage politique faisant aujourd’hui si cruellement défaut, je vous laisse à vos conjectures…

Le Point – 16/09/2008 – Travailler plus pour payer plus d’impôts – Nicolas Baverez

Le gouvernement admet ce que les Français ont depuis longtemps compris. Non seulement il n’y a pas de découplage, mais si les Etats-Unis ont transmis la vérole à la finance mondiale, c’est l’Europe qui développe la syphilis, sous la forme d’une violente récession liée à l’absence de politique contracyclique et à la politique monétaire de la BCE. Loin d’être épargnée par la crise, la France est touchée de plein fouet du fait du recul de sa compétitivité. En 2008 et 2009, il faut tabler sur 1 % de croissance, 3 % d’inflation, 8 % de chômage, 50 milliards d’euros de déficit commercial et 3 % de déficit public. La crise se heurte ainsi au processus de réforme engagé en 2007 et place la modernisation du pays en apesanteur. Le pouvoir d’achat ne peut que diminuer. Le volontarisme est pris à contre-pied par l’absence de toute marge de manoeuvre du fait de la dégradation des finances publiques. D’où la tentation de renouer avec les recettes du passé, en multipliant les mesures de circonstance qui menacent de ruiner la stratégie de redressement du pays.

Le RSA, qui devait lutter contre le chômage et favoriser le retour à l’activité en supprimant les trappes à pauvreté, a été dénaturé en revenu social sans activité. Il n’est plus qu’un super-RMI . Il se contentera de distribuer 2 milliards d’euros à 600 000 personnes sans limitation de durée. Il s’ajoute au RMI et à la PPE au lieu de s’y substituer, créant 1,5 milliard d’euros de transferts sociaux supplémentaires alors qu’ils atteignent le niveau record de 34 % du PIB. Enfin son financement, reposant sur la taxation des revenus fonciers et financiers en plein krach immobiliser et boursier, va déprimer davantage la consommation et l’investissement, détruisant des activités et des emplois.

Le Grenelle de l’environnement, qui devait réconcilier l’écologie et l’économie en favorisant une croissance verte, a été perverti en une usine à créer des dépenses publiques et des taxes sous l’égide d’un nouveau Gosplan. Des infra-structures au prêt à taux zéro en passant par les énergies renouvelables, l’amélioration de l’air intérieur ou la réduction du bruit, les programmes annoncés portent sur 4 à 5 milliards d’euros de dépenses publiques annuelles, sans hiérarchie ni priorité dès lors qu’aucune évaluation préalable n’a été conduite. Généralisation du bonus/malus des automobiles au liquide vaisselle, des pneus aux lingettes, des réfrigérateurs aux téléviseurs… Le foisonnement des normes écologiques entraînera une explosion des prix du logement, des transports et de l’énergie.

Nul ne conteste l’urgence de lutter contre l’exclusion ou de prendre en compte les contraintes d’un développement durable. Mais cela doit s’inscrire dans la stratégie de modernisation économique, axée autour de l’offre productive et de la réforme de l’Etat, et non pérenniser le modèle de décroissance alimentée par la dette publique. Or la multiplication des dépenses et des taxes nouvelles a pour conséquence immédiate de geler l’investissement et la consommation en pleine crise mondiale, alors que les exportations s’effondrent (de 6,5 % à 4 % des parts de marché mondiales en dix ans).

Les classes moyennes, en plus du krach immobilier, de la crise financière et de l’inflation, sont les premières victimes de ce choc fiscal , l’Etat se transformant, selon la prédiction de Tocqueville, en un « pouvoir immense et tutélaire » qui « couvre la société d’un réseau de petites règles compliquées, minutieuses et uniformes » , qui « ne brise pas les volontés mais les amollit, les plie et les dirige, force rarement d’agir mais s’oppose sans cesse à ce que l’on agisse, ne détruit pas mais empêche de naître ».

La politique économique ne relève pas d’un tournant comme en 1983, car ses principes sont sains, mais du lancement d’une seconde étape des réformes pour répondre à la crise la plus dangereuse depuis les années 30. Les mesures conjoncturelles de soutien de la demande doivent être proscrites, car elles auraient pour seul effet d’accélérer le décrochage français, comme en 1975 ou en 1981. Le redressement économique comme la sortie de crise passent par trois maîtres mots. Le sens, indispensable pour donner un cap aux réformes. La cohérence des mesures et de l’action gouvernementales, encore plus indispensable dans la tempête : d’où la concentration autour des priorités que sont l’amélioration de la productivité d’une part, le contrôle strict des dépenses et des prélèvements publics d’autre part. La pédagogie, pour maintenir l’adhésion des Français au processus de modernisation. Autant d’antidotes à la politique du culbuto qui fut au principe du déclin français au cours des années Mitterrand-Chirac et dont le retour dresserait l’acte de décès du redressement du pays comme du quinquennat de Nicolas Sarkozy.

Lehman Brothers victime de son insuccès

La malédiction a encore frappé. Mais qu’ont donc pu faire de mal ces grosses institutions qu’on vénérait encore jusqu’à il y a peu comme des fleurons de la haute finance ?
Après sa soeur cadette Bears Stearns, dont j’avais amplement fait la nécrologie ici et ), Lehman Brothers n’est plus.

La prochaine ? JP Morgan ? Morgan Stanley ? Merril Lynch ? Allons, gardons le sourire, cela restera une belle histoire pour une saga au cinéma. Voilà encore une bonne illustration de l’intérêt de travailler dans la finance de marché en tant que salarié : rafflez le maximum pendant les années fastes ; lorsque les années de vaches maigres surviendront (par votre faute), vous n’aurez qu’à laisser vos congénères mourir de faim et, devant un bon repas, déplorer comme eux la situation.

The Associated Press – 13/09/08 à 13:35:20 – La banque Lehman Brothers va-t-elle passer le week-end?

Géant de Wall Street qui a lancé le commerce du coton aux Etats-Unis avant la Guerre de Sécession et financé un réseau ferroviaire qui aida à bâtir le pays, la vénérable banque Lehman Brothers pourrait bientôt tomber dans l’histoire. Dernière victime en date de la crise des prêts hypothécaires à risque, l’établissement a lancé une opération survie, mais il pourrait bien être dépecé d’ici dimanche soir.

“Rien, hormis un miracle, ne peut sauver Lehman en l’état”, lance Anthony Sabino, professeur de droit et des affaires, qui ne donnait pas jusqu’à lundi matin à la banque…

Pour tenter de sauver Lehman Brothers, une réunion d’urgence s’est tenue vendredi soir à New York, avec des représentants des principales institutions financières américaines et le secrétaire au Trésor Henry Paulson.

Après les géants du refinancement hypothécaire Fannie Mae et Freddie Mac, la quatrième banque d’investissement du pays est en effet la dernière victime en date de la crise du crédit immobilier: après avoir résisté des mois durant à la tentation d’un rachat, elle a présenté un plan de restructuration et cherche désormais désespérément un repreneur.

Vendredi soir, alors que les spéculations et rumeurs allaient bon train dans la presse spécialisée, tout l’establishment financier du pays s’est retrouvé à négocier: outre le secrétaire au Trésor, étaient notamment présents le président de la SEC, la commission des opérations de bourse américaine, et celui de la branche new-yorkaise de la Fed. Selon le “Wall Street Journal”, les dirigeants de Morgan Stanley et de Merrill Lynch assistaient aussi à cette rencontre.

Selon les observateurs, Lehman pourrait être dépecée, d’autres sociétés financières acquérant ses différentes activités. Son immobilier risque d’être vendu à perte…

Parmi les acheteurs potentiels, qui ont tous refusé de faire un commentaire, on avance les noms de la Bank of America, et à l’étranger, la britannique Barclays, la japonaise Nomura Securities, la française BNP Paribas ou encore l’allemande Deutsche Bank.

Vendredi, l’action Lehman a terminé à 3,65 dollars, un plongeon historique et humiliant de près de 95% sous son record de 67,73 dollars.

Fondée il y a 158 ans, Lehman Brothers est l’une des plus anciennes sociétés de Wall Street, finançant le coton d’Alabama, puis la construction du chemin de fer de Pennsylvanie, avant de bâtir sa réputation sur la gestion de bons du Trésor et autres valeurs.

Durant ses 15 années à la tête de la banque, son PDG Richard Fuld a étendu ses activités aux investissements financiers et à la gestion de fonds pour de riches clients. Mais en prenant de l’ampleur, la banque a également pris des risques, notamment sur les prêts hypothécaires. Et elle a été touchée de plein fouet par la crise du “subprime”. Au cours des seuls deux derniers trimestres, les pertes de Lehman Brothers ont grimpé à près de sept milliards de dollars (4,97 milliards d’euros).

Et dans son cas, la banque ne pourra pas compter sur le gouvernement: alors que les autorités avaient mis la main au porte-monnaie en mars pour permettre le rachat de Bear Stearns par JPMorgan Chase, Henry Paulson s’oppose totalement à un soutien à Lehman Brothers, selon une source proche du dossier. AP

L’avenir en Chrome selon Google

Sorry, this entry is only available in Français. For the sake of viewer convenience, the content is shown below in the alternative language. You may click the link to switch the active language.

Google vient juste de révéler Google Chrome. C’est notamment au travers d’une bande dessinée, moyen pour le moins original et qui témoigne de la volonté didactique de la société, que l’on trouvera réponse à la plupart des questions que l’on est en droit de se poser.

https://youtube.com/watch?v=unJakhjF5cw

J’ai été très supris par cette annonce, j’avoue ne pas m’être attendu à ce type d’innovation de la part de Google (je pensais tout d’abord qu’il s’agissait de la mise en ligne d’une charte graphique globale revue [Je pense en effet que parmi tous ces software engineers, l’embauche d’un talentueux web designer ne serait pas de trop ;-] !), bien qu’après réflexion cela me paraisse une initiative évidente qui ne représente pas moins un excellent mouvement, dont les bienfaits seront certainement conditionnés à l’adoption de ces nouvelles normes par les principaux concurrents Internet Explorer et Mozilla Firefox.

Une chose est sûre, l’approche from scratch a de puissante vertus, et je ne m’étonnerais pas de voir Chrome ravir la place à Firefox si celui-ci fait la sourde oreille, et si Chrome tient ses promesses (respect du test Acid2, fonctionnement des scripts, développement de web applications tirant profit de ce nouvel environnement de navigation…). Mais vu l’excellente capacité de Google à faire interagir ses différents services, je m’attends naturellement à ce que tous les futurs projets de Google (et aussi les “anciens”) soient étroitement optimisés pour Chrome, de sorte que l’image d’un web OS, où l’utilisateur “oublie le navigateur” prenne corps.

Seamless web OS

Loic Le Meur’s inspirational tips

In this video, Loic Le Meur is very prolific and pragmatic. Web entrepreneurs should keep in mind the many advices given here, even if it does not always look as the more convenient path:

You may find a written transcription and some extra links on his original blog post.

Comment je gagne 9500€/mois : la vérité

Duo&Co s’étant rapidement intéressé à ces fameux liens sponsorisés qu’on voit fleurir partout et promettent de confortables revenus :

Intéressant de voir que certains liens sponsorisés ayant pour titre “Je gagne 9500€ /mois” mènent sur des sites comme celui ci.

Je serais curieux de voir ce qu’il y a derrière mais n’ai pas eu le courage de mettre une adresse mail pour recevoir la newsletter miracle (qui me permettrait pourtant de devenir riche en peu de temps).
Une autre question qui me turlupine est : mais qui donc se cache derrière cette vaste farce ? Car même si le clic ne doit pas leur couter bien cher, il faut forcément 1/avoir un petit budget 2/attendre un retour sur investissement quelque part…

Voici le commentaire que j’ai posté et qui pourra peut-être modestement aider certains à y voir plus clair :

Pour vous épargnez la peine de vous inscrire à la newsletter (j’ai pour ma part utilisé un email de jetable.org), voici le lien vers les fameux conseils :
http://www.un-max-de-revenus.com/index2.php?p=activite

Il ne s’agit pas vraiment de vente pyramidale ici, simplement d’affiliation pour des sites de paris.

Au menu, des méthodes supposées infaillibles pour gagner, qui se basent sur la méconnaissance des probabilités et de la notion d’espérance :
En misant sur 6 résultats dont les cotes sont supérieures à 6, vous avez 6 chances (non équiprobables) sur 9 (soit 66 % de chances) de gagner au minimum votre mise et jusqu’à 50 fois ou plus votre mise. En clair, 1 seul pari gagné peut couvrir largement les pertes !

Tout d’abord, on peut faire l’hypothèse raisonnable (ou pas) que la probabilité d’un événement correspond à l’inverse de sa cote, pour peu que le marché soit efficient et juste. Dans les faits, en raison des commissions prises par le broker et de l’incertitude du marché, la somme des probabilités de tous les événements possibles excède 1 (autrement dit, la somme de l’inverse des cotes excède 1, par exemple on aura 3 issues possibles chacune cotée 2, donc une « probabilité » totale de ½*3 = 1,5). Les événements cotés par la FDJ ont généralement une probabilité totale de 130% (environ 30% de marge prise par la FDJ) mais certaines plateformes comme Betfair ou Betdaq offrent jusqu’à aussi bas que 100.1% (ce qui signifie que la quasi totalité des paris sont redistribués entre les joueurs). [Note : je n’ai pas réussi ici à retrouver et mettre mes propres liens d’affiliation Betfair et Betdaq car de Singapour tous ces sites sont censurés par le FAI !]. Si la somme de l’inverse des cotes est inférieure à 1, il y a une opportunité d’arbitrage certaine que vous pouvez calculer à l’aide d’une calculatrice comme arbcruncher (un surebet, présenté dans la méthode n°2). Mais hélas cela n’arrive quasiment jamais, ou les commissions dépassent le maigre gain espéré.

Ici, il est conseillé de miser sur 6 résultats parmi les 9 disponibles, à condition qu’ils aient chacun au moins une cote supérieure ou égale à 6. Notons p_i la cote de chacun de ces 6 événements. Les événements étant incompatibles, la probabilité de gagner au moins une fois est égale à celle de gagner une seule fois, soit à la somme des probabilités des événements séparés, donc Somme(1/p_i). Plus simplement, il ne faut pas perdre de vue que si une cote est élevée, c’est que la probabilité que l’événement survienne est d’autant plus faible.
Si les cotes des 6 événements sont de 10, et qu’on suppose qu’elles reflètent l’inverse de la probabilité (cette hypothèse est en réalité excessive car la « probabilité » totale étant supérieure à 1 pour les 10 issues possibles, cela revient à dire que la probabilité de l’événement complémentaire à « l’un des 6 résultats sur lesquels ont a parié est gagnant » est nettement supérieure à 1- Somme(1/p_i)…), on aboutit à une espérance mathématique (moyenne des gains espérés par coup si on joue un grand nombre de fois la stratégie) de 1/10*6*(9-5) + 4/10*-6 = 0€.
Si l’un des cas sur lesquels on a parié est gagnant, on gagne 9 sur l’issue gagnante (et on récupère la mise mais cela n’est pas stricto sensu un gain), et on perd 5 à cause des 5 autres issues perdantes.
En tout état de cause, même en faisant l’hypothèse exagérément favorable que les cotes sont l’inverse des probabilités (on peut cependant trouver des formules un peu plus cohérentes avec la condition de probabilité totale de 1, mais forcément moins favorables), il serait nécessaire d’avoir une cote d’au moins 10 en moyenne sur les 6 événements sur lesquels on va parier, pour atteindre le point mort. Ca devient déjà plus compliqué que de trouver 6 événements ayant en moyenne une cote simplement supérieure à 6.
Dans le même genre, on trouve aussi des sites ventant une martingale bateau (miser le double en cas de perte), vous serez surpris de voir combien de personnes ne voient pas la faille (même dans le cas illusoire ou l’espérance serait positive, il suffit d’une série de pertes consécutives pour anéantir tout le capital et être éjecté du jeu) et seraient prêts à mettre en place de telles stratégies pour leur propre compte (je veux bien être le casino !).

Voilà, vous remarquerez au passage que les liens d’affiliation dans le site sont cachés (mais bel et bien présents). En jouant sur la cupidité de l’être humain, il est facile d’obtenir de sa part une inscription gratuite à un site avec un bonus offert, et qu’une proportion non négligeable d’entre eux génère des commissions dont une partie sera reversée à l’affilié (les sites de jeux sont particulièrement généreux).
Donc oui, je veux bien croire qu’ils gagnent pour certains 10000€ par mois, mais plus en revenus d’affiliation que par de la spéculation…

The “This Page Intentionally Left Blank”-Project

Je n’ai pas posté depuis plus d’un mois, alors je me dois de rendre hommage à un projet extraordinaire sous-jacent qui a pu inconsidérément motiver mon apathie de publication:

http://www.this-page-intentionally-left-blank.org/

Je vous laisse découvrir, et à bientôt pour quelque chose de plus consistant.

The beauty and the beasts, ou de l’amour du beau

Je suis tombé sur un article fort intéressant du Washington Post à propos d’une expérience conduite à Washinton DC, où l’un des meilleurs violonistes au monde a accepté de jouer dans le métro avec son Stradivarius…

Le résultat amène à une réflexion certaine sur le beau : en 43 minutes, $32 donnés par 27 personnes sur un total de 1097 passants. Aucun rassemblement autour de l’artiste. Les journalistes ont ensuite interviewé une quarantaine de personnes, ce qui enrichit notablement l’expérience en apportant quelques réponses aux questions que l’on ne manquera pas de se poser.

D’accord, $40 de l’heure n’a rien de ridicule, sauf si on le compare aux $60,000 que facture ordinairement l’artiste Joshua Bell.

Pour ma part, cet article m’a beaucoup touché car j’ai aussi eu l’opportunité, mais durant seulement 1 minutes et 5 secondes, de conjuguer talents artistiques et mendicité à Chicago. C’était en 2004 et, sortant d’un excellent restaurant, je décidai d’attendre mes proches en m’asseyant au coin d’une rue et en chantant de tout mon coeur et de toute mon âme la Chanson pour l’Auvergnat de Georges Brassens. Je fus éblouis par mon succès, la première (et seule) personne me croisant sortit nonchalamment un billet de 1$ qu’elle glissa furtivement dans mes mains entrouvertes (Mon « Premier dollar », « Sou fétiche » que j’ai hélas perdu avec mon portefeuille voilà deux ans, avis à ceux qui l’auraient retrouvé, c’est un billet de $1 en apparence tout à fait banal). Si $1/minute font $60/heure, je me dis aujourd’hui que mes talents me permettraient peut-être, si l’on m’en donnait l’occasion de facturer $90,000 de l’heure pour mes prestations artistiques.

L’article, agrémenté de quelques vidéos, se trouve ici.

Un premier modèle de picoprojecteur enfin sur le marché ?

Sorry, this entry is only available in Français. For the sake of viewer convenience, the content is shown below in the alternative language. You may click the link to switch the active language.

Assurément une technologie qui gagnera à être implémentée dans les téléphones portables et PDA. Allez, je fais un pronostic : d’ici 2020, elle équipera la moitié des appareils sur le marché.

Optoma: un pico projecteur dans une poche
Le groupe spécialisé dans les projecteurs Optoma vient d’officialiser la présentation de son pico projecteur, utilisant la technologie DLP de Texas Instruments.Présenté initialement et en avant première à l’occasion du salon InfoComm2008 à Las Vegas, l’appareil incorpore une batterie et exploite une nouvelle puce DLP Pico, bien évidemment, DLP oblige, développée par Texas Instruments.

Le projecteur portable permet de projeter des images d’une taille comprise entre 50 et 70 centimètres de diagonale, équivalente à celle d’un téléviseur standard. L’appareil peut être transporté librement, même dans une poche de pantalon, puisqu’il pèse seulement 115g.

Exploitant la technologie LED pour la lampe, le pico projecteur affiche un niveau de contraste de 800:1. Selon Optoma, il sera disponible dès la rentrée prochaine sur le marché français.

Source: HD-Numérique
Illustration: Optoma

Du mauvais rendement de Greenpeace France

Interview avec Frédéric Marillier, chargé de campagne Energie pour l’ONG Greenpeace France. Parue dans le Monde de ce jour.

Mais le nucléaire ne pourrait-il être une réponse en terme de chauffage face à la hausse du prix du fuel ?
Il faut d’abord savoir que le chauffage électrique est une vraie aberration du point de vue énergétique: on fait de la chaleur pour faire de l’électricité pour faire de la chaleur… et le rendement est très mauvais.

C’est la perle de cette interview que je vous laisse découvrir ici. Quand on donne parole à des gens comme cela dans nos journaux, inutile de se poser trop de questions lorsqu’on constate à quel point la volonté générale est amenée à prendre des décisions stupides (cf. le non au référendum en Irlande).
Rousseau, si souvent élevé au rang de grand gourou de la liberté et de la démocratie, doit se retourner dans sa tombe.

“Comment une multitude aveugle qui souvent ne sait ce qu’elle veut, parce qu’elle sait rarement ce qui lui est bon, exécuteroit-elle d’elle-même une entreprise aussi grande, aussi difficile qu’un système de législation ?” Contrat Social, L. II, chap.6, p.380.

Ranking des domaines de premier niveau (TLD) en mai 2008

Domaine Enregistrements Pays
.com 76.063.148 Global Generic
.de 12.024.088 Germany
.net 11.361.663 Global Generic
.cn 11.439.479 China
.uk 6.826.199 United Kingdom
.org 6.761.801 Global Generic
.info 5.041.001 Global Generic
.eu 2.884.199 European Union
.nl 2.702.754 Netherlands
.biz 1.968.075 Global Generic
.it 1.526.208 Italy
.us 1.411.729 United States
.br 1.300.184 Brazil
.ch 1.119.012 Switzerland
.ru 1.243.362 Russia
.au 1.117.393 Australia
.jp 1.009.602 Japan
.fr 1.125.195 France
.ca 1.009.602 Canada
.kr 902.051 Korea
.dk 904.086 Denmark
.es 941.585 Spain
.mobi 898.916 Global Generic
.pl 993.308 Poland
.be 781.997 Belgium
.at 751.867 Austria
.se 725.984 Sweden
.cz 417.376 Czech
.no 383.469 Norway
.nz 328.951 New Zealand
.mx 252.750 Mexico
.pt 211.259 Portugal
.fi 177.835 Finland
.hk 160.336 Hong Kong
.tr 156.358 Turkey
.sk 154.251 Slovakia
.ie 100.997 Ireland
.lt 76.106 Lithuania

Source : http://www.europeregistry.com

Why startups fail

Here is an interesting post regarding some reasons why startups might fail. They can look obvious but any entrepreneur should be aware of them.

Clairvoyance & Simplicité

For those who would be lazy reading the full article (although not that long), I have drawn the following outlines :

  • They spend too much on sales and marketing before they’re ready
  • The market outpaces the startup’s ability to execute
  • There is no Entrepreneur
  • The market takes too long to develop
  • Failure risks are not properly identified

And I would personally add a few more:

  • They fear to meet their market 
  • They wait for their product to be perfect before starting selling it
  • There is no innovation, or it can be copied too easily

Regarding these potential factors of failure, or if properly avoided, factors of success, I wonder where a promising startup company like Goojet will go. Millions of euros have been invested and they have been developing their product for one year and a half, but they only went into public beta a few days ago, while the field is highly competitive and there is a strong need for network externalities (the more people the better), especially since their revenue model is based on a large user base.

Would the best outcome for them be to sell their technology/platform before other players catch them up (and they can make tens of millions that way, which is not bad for a company without clients!), or to meet the challenge and keep on faster with a much more reactive and adaptative strategy? You should not doom a company unless you are shortselling it…

Designez la favicon de Google

Vous l’avez sans doute remarqué, la favicon de Google a changé ! Mais ce que vous ignorez peut-être, c’est que le design choisi n’est pas final, comme en témoigne se post sur un blog officiel de la société (notez que Marissa Mayer n’a jusqu’à présent aucun lien avec la Fondation Erwin Mayer) :

One Fish, Two Fish, Red Fish, Blue Fish

6/06/2008 05:48:00 PM

 

You may have noticed that Google has a new favicon, the small icon you see in your browser next to the URL or in your bookmarks list. Some people have wondered why we changed our favicon — after all, we hadn’t in 8.5 years(!). The reason is that we wanted to develop a set of icons that would scale better to some new platforms like the iPhone and other mobile devices. So the new favicon is one of those, but we’ve also developed a group of logo-based icons that all hang together as a unified set. Here’s the full set:

The design process we went through was rigorous and interesting, so we thought we would share more of it here. We tried in total more than 300 permutations. It was much harder than we thought at first. We wanted something distinctive and noticeable, so we aimed toward transparency or semi-transparency, so the image would have a more distinctive noticeable shape than just a block. We wanted something that embraced the colorfulness of the logo, yet wouldn’t date itself. Since we don’t really have a symbol that means Google, we felt it best to work with the logo and letters within it. Our design team tried literally hundreds of approaches. You can see some of our explorations here.


By no means is the one you’re seeing our favicon final; it was a first step to a more
unified set of icons. However, we really value feedback from users and want to hear your ideas that we may have missed. If you have your own notions about the Google favicon, please send them to us. We’ll do our best to work them in, and maybe your idea will be the one that people see billions of times per day.

Il vous est donc possible de peut-être mettre à contribution vos talents d’artiste sur la grille 16×16 de paint, et d’inventer le Google de demain. Mais lisez bien les conditions avant !

La soumission se passe par ici. On ne peut que se réjouir de voir Google prendre au sérieux le design. Je trouve personnellement que c’est aujourd’hui leur principal point faible (la sobriété est très appréciable mais l’on aimerait parfois un peu plus de libertés). Il y a pire comme point faible cependant ! Je ne citerai pas encore des entreprises dont je suis client et qui ne savent pas coder dignement en Javascript ; celles-là méritent de loin un plus cruel châtiment !

Google en ligne de commande

Les API réservent parfois bien des surprises. Si le GUI du site est agréable, il ne reste plus qu’à tester aussi depuis un terminal classique pour voir si cela fonctionne (à part les images sans doute). Et il ne manque plus que quelques liens publicitaires dans les résultats de recherche.

Tout bon geek qui se respecte devrait être intéressé, sinon amusé par le nouveau site goosh.org, mis en ligne par Stefan Grothkopp, un développeur allemand indépendant. Ce site permet en effet de taper des requêtes google en ligne de commande, comme on le ferait dans un terminal Unix ou dans une fenêtre MS-DOS, via un language de script.
Ainsi pour faire une recherche sur le mot télécharger, au lieu d’utiliser le moteur de recherche Google, on peut désormais se rendre sur goosh.org et taper télécharger à l’invitation. Comme pour toutes les autres requêtes, goosh présente les quatre premiers résultats renvoyés par google.

Aux « aficionados » de la ligne de commande

Vous vous demandez à quoi cet outil peut-il bien servir ? Pas à grand chose sinon qu’il offre aux aficionados de la ligne de commande, un moyen sympathique d’accéder à Google.
Il permet aussi d’accéder à l’ensemble des fonctions de Google à l’aide d’une seule fenêtre, moyennant la connaissance de quelques commandes. Si l’on tape « images roses », Goosh proposera les quatre premiers résultats renvoyés par Google Images. Si l’on tape « news Sarkozy », Goosh proposera les quatre premiers résultats renvoyés par Google Actualités sur Sarkozy et ainsi de suite. Pour avoir la liste des commandes, il suffira de taper « help » à l’invitation du prompt.
A noter que la commande « wiki » suivie d’un mot clé permettra d’accéder aux résultats de Wikipédia concernant ce mot clé. Signalons aussi la présence de la commande « addengine » qui permet d’ajouter Goosh dans la liste des moteurs de la barre de recherche de Firefox.

Le « shell Google » non officiel

N’étant pas un produit développé par Google lui même, Goosh se présente comme le « shell Google non officiel ».« Je n’ai fait qu’utiliser l’API que propose Google et je pense que je respecte leurs conditions d’utilisation mêmes si certaines sont un peu vagues. Je ne sais pas si Google est au courant mais cela ne devrait pas leur déplaire, indique Stefan Grothkopp, J’ai démarré ce projet au début pour des besoins personnels parce que j’aime utiliser les lignes de commande ». 01net.com

L’escargot et le TGV

Ce pourrait être une fable, mais ça n’en est point.

Début mai, un jeune homme originaire d’Arles se trouve dans un TGV avec des escargots dans une boîte. Ils sont vivants. Le voyageur est un instituteur qui destine les gastéropodes pour une “leçon de choses” pour ses élèves de maternelles. Une contrôleuse passe et elle demande au propriétaire des mollusques de payer un billet de 5,10 euros pour ses compagnons de voyage.

Comme pour un chat, un chien ou un canari, l’agent a en effet “appliqué le règlement” qui exige un billet pour tout animal de moins de 6 kg transporté dans un sac ou un panier. Pour les animaux plus gros, il faut payer un billet demi-tarif.

L’affaire est révélée dimanche dans La Provence et rapidement reprise dans les autres médias. Face au battage médiatique entourant cette amusante anecdote, la SNCF a décidé de rembourser les 5,10 euros, même si elle estime que ces gastéropodes sont tenus de payer leur place à bord comme tous les animaux domestiques. TF1 – Il voyage avec des escargots, il doit payer un billet

Et un commentaire fort bien placé de Rémy, Dijon :

Depuis quand un escargot est-il un animal domestique ? Paiera-t-on bientôt une amende pour la tranche de jambon dans un sandwich transportée par un voyageur ?

Terminons avec une petite image qui parle d’elle-même, fort appropriée pour l’occasion… Ils étaient pourtant faits pour s’entendre.

Ils sont fait pour s\'entendre

Gordon Moore: The Accidental Entrepreneur

Je viens de lire un article autobiographique de Gordon Moore publié sur le site officiel de la Nobel Prize Foundation, particulièrement intéressant quant aux enseignements de cette fabuleuse épopée à Fairchild et Intel :

J’ai relevé ces conseils hautement profitables pour toute start-up ambitieuse :

  • Constituer une équipe de personnes talentueuses capable d’innovations.
  • Penser “produit” dès le départ : qu’est-ce qui au final va bien pouvoir parvenir au consommateur ?
  • Mettre en place une organisation complète (R&D, fabrication, vente) dès que les premiers prototypes sont fonctionnels, en maintenant un lien fort entre les trois départements.
  • Anticiper les conséquences à moyen terme de l’emprise potentielle des investisseurs sur le core business et la vision de l’entreprise.
  • Lier les personnes clefs à l’entreprise pour ne pas risquer de les voir partir en emportant avec eux une part significative de la valeur ajoutée de l’entreprise.
  • Fonder son avantage concurrentiel sur des technologies suffisamment complexes pour laisser le temps à l’entreprise de grandir avant que les concurrents ne la copient ou ne la retrouve. A défaut de savoir à l’avance si le succès sera au rendez-vous, travailler sur un portefeuille de technologies, et les évaluer régulièrement pour déterminer lesquelles méritent une focalisation des ressources.
  • Mettre en place des réunions en face à face avec chacun des employés, durant lesquelles ce sont ces derniers qui déterminent l’ordre du jour et font avancer l’entretien.

Et ces passages que je préfère laisser verbatim.

From the beginning at Intel, we planned on being big. Since we had already been fairly successful at Fairchild, anything less successful in our new venture would have been a disappointment. So, at the very beginning we recruited a staff that had high potential and that we thought would be around to run the company for some time. This is an opportunity that many start-ups miss. There is no better chance to train managers than in a start-up, where they have the opportunity to see the entire company as it grows. It starts small and simple; one can see all the operations as they get bigger. I think that people looking at start-ups, venture capitalists in particular, ought to push very strongly not to squander the opportunity to develop management during that time period.

(…)

Another thing we had learned along the way was to raise money before we needed it. One thing you find out after a little bit of experience as an entrepreneur is that the bank will lend you money as long as you don’t need it. You can sell stock as long as you really don’t have to. With good advice from directors such as Arthur Rock, we have always had plenty of capital on hand, so that we haven’t been hindered in our ability to raise more.

Vous trouverez l’article au complet sur le site de la Nobel Prize Foundation, ainsi qu’une interview de Gordon Moore datant de quelques jours sur le toujours très excellent Spectrum.

120V vs. 230V : un concours d’électrocution

Tout a commencé par une question simple : pourquoi 230V ?

Je ne pouvais par la même occasion m’empêcher de me demander : pourquoi est-ce le double que les Etats-Unis ? Pourquoi les tensions électriques domestiques diffèrent-elles suivant les zones géographiques ?

Tensions électriques domestiques dans le monde

Tensions électriques domestiques dans le monde

Chronologiquement, il fallait d’abord se pencher sur le cas des Etats-Unis et a fortiori de l’Amérique du Nord pour trouver quelle fut la première tension électrique domestique choisie, et pourquoi.

“The penalty of leadership”

Les pionniers ont le privilège du choix, mais aussi l’impossibilité de se baser sur l’expérience pour le rendre optimal. Il semblerait que les Etats-Unis en aient ici fait les frais. L’histoire montrera que cette formidable capacité à innover ne les a pas toujours desservis : les récentes avancées dans le domaine des voitures électrique (avec Tesla Motors), les bases du réseau Internet qui permettra l’avènement de sites comme Google ou Comparavel, sont là pour en témoigner.

L’électricité était tout d’abord destinée à l’éclairage, via les ampoules mises au point par Thomas Edison (alias sa société General Electric), ainsi qu’aux moteurs. C’est ce même Edison qui déploya les premiers réseaux de courants continu (DC) suite à l’obtention d’un brevet en 1882. Ceux-ci avaient pour particularité d’être constitués de générateurs alimentant un réseau de distribution formé d’épais câbles conducteurs, et jamais distants de plus de 1 ou 2 kilomètres des clients. L’ensemble du réseau fonctionnait avec la même tension que celle appliquée aux bornes des appareils électriques finaux. Une lampe de 100V était ainsi reliée à un générateur de 110V, les 10V supplémentaires étant généralement perdus durant le transport. Le voltage (anglicisme pour tension électrique) était donc choisi en fonction des besoins des appareils connectés, en l’occurrence principalement les lampes. Celles-ci avaient été spécialement conçues pour que les filaments de carbone supportent une centaine de volts, afin de fournir un éclairage performant mais surtout compétitif face aux traditionnelles ampoules à gaz. 100V n’étaient en outre pas considérés comme présentant un risque majeur d’électrocution pour les utilisateurs.

Le système de distribution était de type monophasé 3 fils (3-wire, single-phase, mid-point neutral system) à +110V, 0V et -110V, devant ainsi permettre de réduire la quantité de cuivre utilisée à intensité constante. Cependant, cela ne répondait pas à la question de fond. En effet, ce système revenait à répartir l’intensité entre le + et le -, chaque fil ayant une tension absolue de 110V. Avec un seul fil transportant le courant et de tension 220V, la perte est de P = RI² (car P = UI et U = RI), P étant la puissance (donc multipliée par une durée pour obtenir le nombre de joules dissipées), U la tension, I l’intensité et R la résistance du fil. Avec deux fils, la perte est de P = R_2*(I/2)²+R_2*(I/2)² = R_2*I/2. Si R_2 = R_1, on a bien R_2*I²/2 < R_1*I², mais on utilise deux fois plus de cuivre !
Pour diviser au moins par deux la quantité de cuivre utilisée (le câble peut être assimilé à un cylindre), à longueur constante, il faut diviser le diamètre des câbles au moins par la racine carrée de 2.
Or, la résistance d’un fil est inversement proportionnelle à l’aire de sa section, c’est à dire au carré de son diamètre (si le fil a une section circulaire). Par conséquent, à longueur constante, si l’on divise le diamètre de chaque câble par la racine carrée de 2, on multiplie par 2 sa résistance et ayant ainsi R_2 = 2*R_1, on a finalement R_2*I²/2 = R_1*I², c’est-à-dire aucun gain par rapport à un système monophasé 2 fils.

Toujours est-il que les lampes pouvaient fonctionner entre soit +110 soit -110V et le conducteur neutre à 0V, ce dernier ne servant qu’à transporter la différence de courant entre les sources + et – (unbalanced current).

Malgré cette supposée innovation d’un système monophasé 3 fils (dont je ne vois pas l’intérêt), la perte de tension liée à la résistance des fils de cuivre était si haute que les générateurs ne pouvaient être à plus d’1 mile de la charge. Et des voltages plus importants ne pouvaient pas être si facilement utilisés avec le système de courant continu (DC), défendu par Edison durant la Guerre des courants, car il n’existait tout simplement pas de technologie efficace et à prix raisonnable permettant de réduire significativement la tension (transformateur).

Suite à la victoire in extremis de Westinghouse et Nicola Tesla (voir ici les détails de cet épisode épique de l’histoire de l’électricité), instituant le règne du courant alternatif (AC), le paysage électrique américain changea significativement. Un des principaux avantages du courant alternatif était de pouvoir facilement transformer un très haut voltage en un bas voltage, et donc de permettre le transport de l’électricité sur des grandes distances à très haut voltage (jusqu’à 765kV sur certaines lignes) avec des pertes bien moindres (divisées par le carré de l’augmentation du voltage, à courant constant, d’après la loi d’Ohm U=RI²). Mais malgré la préconisation de Tesla d’utiliser un voltage de 240V (suite à des recherches théoriques), presque suivie (220V) par la plupart des pays d’Europe (qui en étaient encore aux balbutiements de l’électricité et ne faisaient donc pas face à un coût rhédibitoire), aux Etats-Unis il était déjà trop tard pour changer la tension domestique de 120V (au total 240V) mise en place par Edison et pour laquelle tous les équipements ménagers avaient été conçus.

On notera toutefois que Westinghouse suivit la recommandation de Tesla concernant la fréquence utilisée (60 Hz, c’est à dire 60 changements de sens du courant par seconde), qui avait été auparavant méprisée par Edison pour lequel Tesla travaillait. Malgré ses 220V (étant aujourd’hui devenus 230V pour réduire encore les pertes et dans un souci d’harmonisation européen), l’Europe et bien d’autres pays n’ont hélas pas adopté cette fréquence, une juste revanche pour les Etats-Unis, vu les conséquences significatives de ce mauvais choix.

When the German company AEG built the first European generating facility, its engineers decided to fix the frequency at 50 Hz, because the number 60 didn’t fit the metric standard unit sequence (1, 2, 5). At that time, AEG had a virtual monopoly and their standard spread to the rest of the continent. In Britain, differing frequencies proliferated, and only after World War II the 50-cycle standard was established. A mistake, however.

Not only is 50 Hz 20% less effective in generation, it is 10-15% less efficient in transmission, it requires up to 30% larger windings and magnetic core materials in transformer construction. Electric motors are much less efficient at the lower frequency, and must also be made more robust to handle the electrical losses and the extra heat generated. Today, only a handful of countries (Antigua, Guyana, Peru, the Philippines, South Korea and the Leeward Islands) follow Tesla’s advice and use the 60 Hz frequency together with a voltage of 220-240 V. Source

Cela étant, les Etats-Unis peuvent tout à fait obtenir du 240V de leurs prises électriques. La plupart des climatisations, frigidaires, et autres appareils grands consommateurs d’électricité sont ainsi reliés aux deux fils de 120V et -120V (soit 240V de différentiel), plutôt qu’à l’un des deux et au neutre. Les appareils peu gourmands quant à eux se satisfont d’une tension de 120V (source). La plupart des appareils européens nécessitant un transformateur AC/DC (ordinateurs portables, lampes halogènes…), puisqu’ils ont de toutes façons un boîtier dédié à la transformation du courant, acceptent généralement le 120V et le 50Hz. Mais ce ne serait probablement pas le cas d’une machine à laver.

Quant aux prises américaines délivrant une tension de 240V, il n’est pas conseillé de brancher des équipements européens dessus car le système de 240V aux Etats-Unis est réparti sur 2 fils de tension opposée contre 1 seul de 230V en Europe (source, une justification théorique serait cependant bienvenue). Attention, malgré cette séparation en deux fils autour du neutre pour le système américain, il reste cependant bien monophasé (2 fils n’impliquent pas du diphasé). D’ailleurs, en Europe la tension maximum disponible est en réalité de 400-460V (230V sur chaque fil) ! Pour l’exploiter (par exemple dans le cas d’une pompe à chaleur), il est généralement nécessaire de passer en triphasé, c’est à dire demander un raccord à l’opérateur d’électricité sur 3 phases et adapter son système électrique domestique en conséquence. Un dispositif vorace pourra ainsi être branché sur 2 phases (différentiel de 400-460V) plutôt que sur une seule et le neutre (différentiel de 230V) (Source).

3-wire monophase system in the USA and in Europe
3-wire monophase system in the USA and in Europe

Dans quelles prises électriques est-il le plus conseillé d’insérer ses doigts ?

Ayant donc constitué une réponse satisfaisante à ma question initiale, et appris de nombreuses choses au passage sur les générateurs et autres sujets liés de près ou de loin (Tyrannie des liens hypertextes), je me devais alors de répondre définitivement à un nouveau problème pour lequel je fus surpris par la pléthore d’informations souvent spéculatives, incomplètes ou erronées : le 120V est-il moins dangereux que le 230V ?

Vous comprendrez qu’un “oui” ou un “non” ne sont pas de nature à combler ma curiosité, pas plus que le fait d’insérer mes doigts dans la prise de courant mexicaine 120V à 40 cm de mon clavier d’ordinateur (mes doigts sont trop gros de toute façon).

Dans mon infinie miséricorde, je vais vous épargner tous les arguments spécieux en faveur du 120V, et vous exposer mes conclusions, que j’espère n’être ni spéculatives, ni incomplètes, ni erronnées. Peut-être sauverai-je ainsi des vies ;-).

Encore une fois, nous partirons de la loi d’Ohm. Nous savons que lorsqu’un humain relié à la terre touche un conducteur électrique de tension U, la tension traversant son corps est précisément de U. En revanche, le courant le traversant n’est pas nécessairement égal à l’intensité I du conducteur. Comme pour n’importe quel appareil électrique, le courant “tiré” (drawn) du circuit est dérivé de U = RI, où R est la résistance des appareils électriques jalonnant ce circuit. On a I = U/R. Ce qui est sûr ici, c’est que le courant “tiré” ne peut être supérieur à I.

Si la fréquence d’inversion du sens du courant alternatif (50 Hz en Europe, 60 Hz en Amérique du Nord et dans quelques autres pays) est particulièrement néfaste du fait de son entrée en résonance avec le système nerveux, les effets ne varient pas significativement pour 10 Hz de différence (même si 60 Hz est considéré comme plus dangereux). On notera simplement qu’avec un tel courant alternatif, la fibrillation cardiaque peut advenir avec un courant aussi faible que 60 mA, contre 300 à 500 mA pour le courant continu (source). C’était l’un des arguments mis en avant par Edison lors de la Guerre des Courants, allant jusqu’à électrocuter des animaux sur la place publique pour prouver la dangerosité de l’AC, et rebaptiser le terme “électrocuté” en “westinghoused”.

Grâce à la relation I = U/R, et sachant que les dommages subis par un organisme électrocuté augmentent avec l’ampérage le traversant, il ne nous manque plus que R (résistance du corps, fixe) pour calculer I en fonction des différents voltages. Selon des sources concordantes, celle-ci varie entre 1 000 Ohms (peau humide), 10 000 Ohms (peau sèche) et même jusqu’à 100 000 Ohms (peau très sèche).

On obtient ainsi le tableau suivant :

Tension

Intensité de courant traversant le corps

I si R = 1 000

R = 10 000

R = 100 000

120V

120 mA

12 mA

1,2 mA

230V

230 mA

23 mA

2,3 mA

On remarque immédiatement que l’intensité I disponible a en réalité peu d’importance pour évaluer le danger des prises électriques. En effet, même si l’intensité délivrée par le 230V est environ deux fois inférieure à celle délivrée par du 120V, l’ordre de grandeur est toujours l’ampère (A) voire la dizaine d’ampères, ce qui équivaut quasiment à un courant infini disponible pour s’électrocuter (il suffit de quelques dizaines de milliampères pour subir une électrocution létale, ce qui est bien en-dessous du courant disponible, aussi bien avec le système 120V que 230V). Au mieux peut-on peut-être penser qu’avec du 230V, l’ampérage disponible (10A pour une installation domestique standard) serait insuffisant pour tuer un pachyderme à la peau épaisse. Pour l’homme, ce n’est donc pas parce que la division par deux de la tension sur le réseau est compensée par le doublement de l’ampérage disponible que la quantité d’énergie absorbée en cas de choc est identique. On évince là une des assertions spécieuses avancées par de nombreuses bonnes volontés.

Ainsi, pour un ampérage disponible sur le réseau dans les deux cas bien supérieur au courant létal, le 230V est dans l’absolu deux fois plus dangereux que le 120V. Dans la pratique, il convient bien sûr d’apprécier l’effet de seuil (Source) :

Courant électrique (mA)

Effet physiologique

1 mA

Seuil à partir duquel un choc est ressenti, douleur

5 mA

Seuil maximum de courant non dangereux

10-20 mA

Contraction musculaire soutenue. Impossible de lâcher le câble par exemple.

50 mA

Interférences ventriculaires, difficultés respiratoires

100 300 mA

Fibrillation ventriculaire. Létal.

6000 mA

Contraction ventriculaire soutenue suivie d’un rythme cardiaque normal.

Ce sont les paramètres d’un défibrillateur cardiaque. Paralysie respiratoire temporaire et brûlures internes possibles

On peut donc en conclure que si globalement le 120V limite les risques d’électrocution mortelle (dans le cas d’une peau suffisamment sèche), cela ne reste probablement qu’un effet positif statistique, et ne saurait encourager les utilisateurs à moins de prudence avec du 120V qu’avec du 230V. D’autant que les dommages physiologiques dépendent en grande partie de la durée de contact avec le conducteur ! Si votre main, même relativement sèche, enserre un câble américain pendant 10 secondes, vous aurez très certainement la chance de pouvoir vous plaindre directement auprès de M. Edison !

Don’t joke too much

This is particularly inspiring if you are, like me, often tempted to make that kind of joke. Thank you Mikaël for the link.

Play as you dream

My dear friend and business associate Youcef wrote a very interesting post regarding lucid dreaming. I can’t help trying to go further with my own experience and to suggest what could be the next possible steps.

I have been pretty successful in controling lucid dreams, when they occur. What does that mean? Well, I am completely aware that I am dreaming, that I am in a parallel world. And I manage to keep on with the experience. I usually use two ways to achieve this and to remain in such an unusual state of consciousness:

The first one is to try thinking as if you were in a video game with objectives. From there, you can benefit from two useful consequences:
1. If I stopped dreaming, I couldn’t finish the game so that would become a serious pain. Lucid dreaming, as a game, is turned into a continuous necessity.
2. I can switch from “It’s not worth doing that if it’s only a dream” to “It’s worth because it’s a lot of fun and I am able to experience things that I could not in real life”. This is exactly why so many people love playing video games, so why not love playing dreaming games as well?
I am not saying we are talking about the same thing. If you have already experienced that kind of dreams, you may have noticed that GTA IV is to controlled trash dreams what Pong is to RL Tennis (RL Tennis is not a video game, it stands for “real life tennis”). Yes, dreaming is a huge technological breakthrough, its only drawback being that until now it has only been discovered and enjoyed by unconscious people.

The way you feel the world while dreaming is in fact in the holy grail of the whole video game industry. Input signals do not suffer from the hassle of steering wheels, keyboards, joysticks or even the latest wireless controller for gamers, let alone the Wiimote. No, this time you feed the game directly with your mind. You do not only control what you are doing, you also have a total control on your environnment. No need for cheat mode.
But we have not mentionned your perception of the game output. Far from your beloved narrow-angle television or 15,4″ computer screen, you feel immerged in the richest colorful and three-dimensional environment ever.
Yes, you are at the same time the gamemaster and the main player.

The second method is quite similar, but works especially well if your lucid dream is closer to a lucid nightmare, a very intellectual story (like giving an articulate talk in front of an assembly or having a very deep conversation with someone), or affective events (a love adventure, tragic drama with members of your family being killed…). The idea is to consider you are writing the scenario of a movie (or a book for those who are more conservative) and playing the main role. Unlike playing a game, you don’t necessarily need to achieve your objectives. You only have to make sure everything is consistent and the story is interesting.

Otherwise, and this leads us to what can still break a lucid dream, you are likely to say yourself “this is a sheet of bull” and wake up. Dreaming games are likely to virtually crash (like a blue screen of the death) for the same reasons: too many inconsistencies make you feel this is a total nonsense, or on the opposite, a too-good-to-be-true event. Usually I cannot sustain it, that’s a pity but it might be because it is to far from reality to be acceptable. You suddenly wonder: “Hey, I’m happy but when I wake up I will have to face a slightly ruder reality!”, which cause your fun level to go down the required threshold and you open your eyes.

Now, what remains to be discovered to go further with lucid dreaming? All what I have described are only handcrafted and not that easily controlled experiences. Especially, it is still very difficult to enable the lucid dreaming functionality of your brain. When it happens, you are happy, but that is not satisfying, IMHO.
So, the first step would be to understand better how we can activate lucid dreaming on the fly, on demand, without having to be sleeping before for long hours for example.
So next one could be to learn how we can physically influence the content of a lucid dream, so that we could schedule it on our computer before going to bed (or using the machine developed on step 1).
More ambitious would be to retrieve in RL the content of a lucid dream, or otherwise to interconnect people’s lucid dreaming, so that it may help step 4 happen someday.
This latest step is the matrix. I won’t explain it, just watch the movie.

This time we are the ones. Let’s not miss the opportunity to be the pioneers.

Alitalia coulée par les syndicats ?

Voilà un article intéressant de Telos sur le cas Alitalia, qui illustre une fois de plus l’irresponsabilité de certains syndicats vis-à-vis même de ceux qu’ils sont censés protéger.

Les chimères d’Alitalia – Andrea Boitani – 09 Avril 2008

Ceux qui, en Italie, ont accueilli avec soulagement la décision d’Air France-KLM de se retirer des négociations devraient comprendre que la procédure de dépôt de bilan mène droit à la faillite car Alitalia n’est pas en mesure de dégager des ressources suffisantes pour satisfaire ses créanciers. Les organisations syndicales d’Alitalia et les politiques qui les ont soutenues ont fait preuve d’une grave irresponsabilité, perdant le peu de crédibilité qui leur restait. (more…)

Big Dog revisited



ASIN to EAN converter

Since I was needing an EAN to ASIN converter and ASIN to EAN converter (UPC/barcode and Amazon code), but could not find any on the web, I decided to write one myself. It is always fun to learn a new API (here I used Amazon Web Services). And when it works exactly as you expect, you are definitely API!

You can input several codes (batch mode) by separating them with “;” (semicolon). The output will be one column with the original code and another with the converted code.

So, long story short, here comes the beauty, and the beast (also available here on a dedicated page/window):

This converter can easily be embedded on your own website using the following code:

<iframe style="border: solid 1px #ccc;" src="https://www3.erwinmayer.com/labs/asin2ean/" width="490" height="630"></iframe>

Latest features:
30/12/2014: Tab in URL and locale persistence.
19/12/2014: Responsive/Mobile-friendly version.
09/12/2014: Much faster batch operations & UI rewritten for easier readability.
09/06/2014: UI improvements for batch operations.
30/04/2014: Added support for BR (Brazil) and IN (India) locales.
02/10/2011: Added support for ES (Spain) locale.
27/08/2011: Added support for IT (Italy) and CN (China) locales.

Please feel free to report any bug you might encounter, or suggest improvements.

I may be available for consulting work on a case by case basis. Just drop me a note if needed.

« Previous pageNext page »