Archive for the ‘Etats Unis’ category

THE BIG IOT BAZAAR AT CES…

5 février 2016

Do Consumers Really Want an IoT? The most active market is B2B… IoT is commoditization Where is the value? Security is an afterthought…

DSC01783.JPGCedric Hutchings & Eric Carreel, CEO and chairman of Withings with Henri Seydoux, CEO of Parrot at CES Unveiled

At CES, the CTA organization said that the market for Connected Objects will reach $278 Billion in 2016…! Everything at CES was about connected objects… This number include almost everything because today, everything is connected.. TV, Smartphones, Hifi, Tablets, Wearbles, smart home, health, security, cars, glasses, perfume, toilets, etc…

What are consumers looking for when they speak “connected objects”.. So many things… !  IoT doesn’t look to be a market… and in fact it isn’t. We have to dig deeply in many different categories to identify real needs and to get real consumers who buy and use specific products regularly, most of them are already commoditized and many connected objects are no longer used. Doeas this mean most of the numbers are wrong…?

Consumers plan to cut spending on techIoT is not projected to pick up the slack.

Accenture, has completed a major consumer opinion survey and produced a report – Igniting Growth in Consumer Technology (28,000 interviews, 28 countries)  – One of the results is: Technology consumers simply aren’t in gadgetry mood and when questioned offer two reasons.

First, they are happy with their tech pretty much as it is and aren’t yearning to buy newer/better smartphones, PCs  or tablets. Connected watches and wearables might have looked like being the next big thing a year or so ago, but while there was an initial flurry of buying (Apple Watch, remember?) that has now faded away and only about 13 per cent of consumers think they might be in the market for one of those.  It’s the same story with fitness gadgets and surveillance cameras. Nerdy IoT stuff like thermostats and personal drones stimulates even less interest and tends to languish down in single digit ‘buying intent’ territory.

Users and IoTSource: Accenture

So they’re not upgrading as quickly the ‘things’. Why?

It could be that there is still a perception that many (perhaps most) of those ‘things’ are in the ‘connected toothbrush’ realm and therefore are simply not worth buying at just about any price. But in fact one big reason (at N°2) as stated in the Accenture report is  ‘security and privacy’. Put simply, consumers are worried about exposing their personal information and personal behavior to organizations primed to chase them.

How much more rapacious the activity will become when the entire house, the car, full of personal gadgets, are primed to report house and car owners’ behavior back to Samsung Amazon, Apple or Google?

Security and privacy…

Accenture says: “Price, security and ease of use remain barriers to adoption of IoT devices and services. For the majority of consumers, the lack of a compelling value proposition is reflected in concern over pricing. Security is no longer just a nagging problem, but a top barrier as consumers choose to abandon products and services over security concerns.”

The future success of IoT doesn’t just rely on connected homes and gadgets, but they are being factored in as an important component. “Growth in new categories will happen—and when it does, it can happen very quickly—but the industry needs to move NOW to drive [progress]” The value is not in the object. Generally it is related to a mix between service, usage, price, data and communities.

new study, published by Harvard University and funded by the Hewlett Foundation, debunks the notion that surveillance agencies are struggling with a data blackout. On the contrary, it argues, the rise of connected devices (the so-called Internet of Things) presents massive opportunities for surveillance, bolstered by technology companies having business models that rely on data-mining their own users — providing an incentive for them not to robustly encrypt IoT data.

“In the longer term, the Internet of Things means ubiquitous surveillance. If an object “knows” you have purchased it, and communicates via either Wi-Fi or the mobile network, then whoever or whatever it is communicating with will know where you are. Your car will know who is in it, who is driving, and what traffic laws that driver is following or ignoring. No need to show ID; your identity will already be known. Store clerks could know your name, address, and income level as soon as you walk through the door.”

What makes a connected object?

Electronic components : Commodities. Sensors and microcontrollers. They are cheap, easy to build.. Connected Objects are already  commodities. Many of them are sold on the internet or are bundled into existing products (appliances). Some of them like wearable and watches are bundled and connected to a smartphone. What value does the object alone brings to the consumer?   

Networks :  Commodity pipes. To transmit the data. There are many networks : fix, mobile 2G/3G/4G, WiFi, Bluetooth, Zigbee, Zwave, Thread, LoRa, SigFox… The issue is who owns them: Telco or not Telco? How much will they charge?  It took 10 years for the Telcos to find a business model in mobile phone… Cellphones were a competitor for fixed lines and Internet created the smartphones. Wifi was hated by Telcos… (Typical silo approach).

Data : Commodity. They come from the use of the objects. Lots of data generated. They need to be gathered by someone to be stored, analyzed and used.  What to do with the data?

Storage: Can be local or remote… Commodity. Who owns it? Who has access to it (the data) ?

Security: Ipso Alliance (an open, informal  association that promote the value of using the Internet Protocol for the networking of Smart Objects) recently added security to its goals.  “we are turning our efforts to ensuring that smart objects have identity, privacy and security attributes. Addressing these issues is critical to securing the IoT and all of its Data…”

How such an assemblage of commodities can make real and sustainable business models? Some answers are “collective usage”, “sharing economy”, “communities of users”, “industrial processes”, “data collection and analytics”, “security”, “remote and or automatic monitoring”, “optimization of processes” , “transportation”, “physical regulation”, “specific risk analysis” etc.

Another major unfulfilled promise is interoperability…Most of these IoT devices do not work with each other, they cannot exchange data, there data don’t have the same format, they work on different standards, they are triggered by different applications with different interfaces and they are connected with different networks… Demos show an idyllic perfect world where everything is working and interacting smoothly to the benefits of a happy reunited (even if dispersed) family in one click, now relying on artificial intelligence and data generated profiles  to take care and solve their problems before they happen… A life in heaven…!

Industrial IoT before IoT for people…

In a 140 page report The Internet of Things: Mapping the Value Beyond the Hype report, McKinsey & Company is more upbeat, but mainly regarding the industrial developments of IoT (B2B), an absolute necessity before customers could reap the real value of it (B2C). It is projecting that the Internet of Things (IOT)—meaning sensors and actuators connected by networks to a computing system—will see between $4 tillion up to $11.1 trillion a year economic impact by 2025, most of it being developed in the enterprise market.

Our central finding is that the hype may actually understate the full potential of the Internet of Things—but that capturing the maximum benefits will require an understanding of where real value can be created and successfully addressing a set of systems issues, including interoperability. Rather than just analyzing IoT uses in vertical industries, we also look at settings, such as cities and worksites. This shows how various IoT systems can maximize value, particularly when they interact.

We estimate a potential economic impact—including consumer surplus—of as much as $11.1 trillion per year in 2025 for IoT applications in nine settings: Factories (between 1 and 4 $ trillion), Cities(between 1 and 2 $ trillion, Human health monitoring (between 0.2 and 1.6 $ trillion), Retail (between 0.4 and 1.2 $ trillion,  Outside, Work sites, Vehicles( between 0.2 and 0.7 $ trillion)  , Homes (between 0.2 and 0.3 $ trillion), Offices.”  

The report mentions also crucial points as:  interoperability, data and intelligence, embrace data-driven decision making, B2B applications, IoT value in developing economies, capture the real benefits of vertical applications as health…incumbent should create new business models with IoT, continue to innovate in technologies, improve on privacy and security….  

 

Le rachat de T-Mobile par AT&T opposé par la FCC et la justice américaine

27 novembre 2011

En demandant une enquête administrative, la FCC vient de confirmer son refus d’approuver le rachat de T-Mobile par AT&T pour 39 milliards de dollars, marquant ainsi un coup d’arrêt à la consolidation excessive parmi les opérateurs mobiles aux Etats Unis, dans la mesure où le consommateur américain n’en bénéficierait pas, au contraire.

Procès antitrust et enquête administrative

En mars 2011, AT&T, le deuxième opérateur mobile aux Etats Unis, annonçait sont intention de racheter T-Mobile, filiale américaine de Deutsche Telekom. Le nouvel ensemble crée constituerait le premier opérateur mobile américain avec 43% de part de marché en nombre d’abonnés.  En Aout, après de nombreuses protestations de la part des organismes de consommateurs et de certains membres de l’industrie, le DOJ (Department of Justice) intentait un procès antitrust pour bloquer ce rapprochement sur la base d’un certain nombre d’arguments qui, toutes proportions gardées, attribuent à T-Mobile un rôle à peu près identique à celui que joue Free en France face à l’inertie de l’opérateur historique appuyé sur une position fortement dominante et un comportement très monopolistique.

T-Mobile, un peu comme Free en France…

Faire disparaitre T-Mobile aux US, c’est un peu comme si on tentait de faire disparaitre Free en France… !! Julius Genachowski, Chairman de la FCC, l’agence fédérale de régulation des télécommunications, équivalent de notre Arcep Française, avait déjà indiqué lors de l’action du DOJ « la concurrence est un composant essentiel de l’analyse légale de l’intérêt public de la FCC, et bien que le processus ne soit pas achevé, les éléments dont dispose l’agence lèvent de sérieux doutes sur l’impact de cette transaction sur la concurrence. »  Aujourd’hui, très clairement, en accord sur le principe avec le DOJ, la FCC  laisse entendre qu’elle n’est pas été en mesure d’approuver l’accord passé entre AT&T et Deutsche Telekom parce qu’il réduirait la concurrence de façon significative et conduirait à une réduction massive d’emplois….Un responsable de la FCC indiquait : « Les résultats de l’enquête montrent, et ceci pas en termes vagues, que ce rapprochement résulterait en une perte passive d’emplois aux Etats Unis et à une perte d’investissement… ».

Moins de 50% de chance d’aboutir

La coûteuse campagne de communication entamée par AT&T pour tenter de faire croire l’inverse fait donc long feu. Même si l’action anti-trust du DOJ n’abouti pas (le procès doit se dérouler en février prochain si AT&T décide de s’y opposer), la décision de la FCC d’envoyer AT&T dans une enquête administrative ajoute une nouvelle procédure qui renforce les doutes sur de rapprochement et diminue encore plus les chances d’une conclusion favorable pour AT&T dans les délais. En effet la procédure d’enquête administrative devant un juge demandée par la FCC  s’appliquera après le procès Antitrust si AT&T le gagne, et les termes de l’accord entre AT&T et Deutsche Télékom indiquent que toutes les autorisations nécessaires doivent être obtenues avant la date du 20 septembre 2012, date qui peut bien sur être prorogée par les 2 parties.

Les analystes de l’agence de notation Moody indiquaient récemment qu’il y a maintenant moins de 50% de chance que l’accord soit finalement conclu. Les chances d’AT&T s’amenuisent au fur et à mesure où les opposants déclinent les multiples terrains d’attaque. En effet pour gagner le procès antitrust, le DOJ cherchera à démontrer que le rapprochement diminue significativement la concurrence sur le marché et l’enquête administrative de la FCC attaquera sur un autre plan en cherchant à démonter que le rapprochement va contre l’intérêt public, un argument plus facile à démontrer.

Des risques et des coûts importants

Pour les responsables d’AT&T qui ont déjà repoussé leurs objectifs de conclusion définitive du contrat en juin 2012, la démarche de la FCC est mal venue : « C’est encore un autre exemple que l’agence gouvernementale cherche à s’opposer à des milliards de nouveaux investissements et à la création ne nombreux nouveaux emplois, alors que l’économie américaine a désespérément besoin des deux » disait Larry Solomon, un VP de AT&T dans un communiqué.  Mais AT&T ne peut pas entrer en opposition ouverte avec la FCC et les responsables d’AT&T semblent prêts à se séparer  de plusieurs actifs importants qui pourraient calmer le régulateur et affaiblir les arguments du DOJ.

Cependant, l’impact d’un échec d’AT&T dans sa tentative risque de lui coûter très cher (coût qui sera probablement reporté en augmentation des tarifs chez AT&T..) sachant qu’il vient de provisionner 4 milliards de dollars pour couvrir les éventuelles compensations à payer à Deutsche Télécom en cas de non rachat. Celles-ci seraient estimées au total à près de 6 milliards de dollars…. Pour T-Mobile, qui aurait perdu 850000 clients en un an l’année dernière, les enjeux sont encore plus importants car sa survie pourrait être en jeu…

Sortir de l’impasse

Immédiatement après l’annonce de la démarche de la FCC, les responsables d’AT&T et de Deutsche Telekom ont utilisé une procédure juridique du règlement de la FCC qui leur permet de retirer leur demande de régularisation du rachat de T-Mobile par la FCC (aux conditions du contrat initial) et donc d’éviter que celle-ci ne mette en place son enquête administrative et ne puisse mettre en évidence certains aspects que les responsables d’AT&T ne souhaiteraient pas voir dévoilés au grand public… Leur objectif, selon plusieurs analystes, est d’essayer d’obtenir un accord à l’amiable avec le département de la justice (DOJ) et ensuite de revenir auprès de la FCC pour demander la validation d’un nouvel accord de rachat, sur des bases différentes. Plusieurs rumeurs laissent entendre que AT&T envisagerait de revendre une bonne partie des actifs de T-Mobile obtenus, jusqu’à 40%, ce qui constituerait un véritable démantèlement de la filiale de l’opérateur historique Allemand.

Prochaine audition le 30 novembre

De nouveaux éléments seront probablement dévoilés sur la stratégie adoptée par AT&T lors de la prochaine audition préparatoire du procès anti trust qui sera tenue le 30 novembre prochain par le juge Ellen Huvelle de la cours du District de Columbia (Washington DC).

AT&T et T-Mobile dans le collimateur de la FCC et du congrès Américain

11 août 2011

Depuis l’annonce du rachat de T-Mobile par AT&T pour 39 milliards de dollars, l’opération n’a cessé de susciter des remarques, des remous, puis une opposition de plus en plus active de la part des consommateurs, d’une bonne partie de l’industrie et maintenant de l’administration et de l’agence de régulation américaine. En effet, reconnaissant ouvertement que ce rapprochement crée pas mal de problèmes, la FCC a décidé d’aborder ce dossier de façon plus large et de le traiter conjointement avec un autre dossier concernant AT&T, celui du rachat des fréquences 700 MHz que Qualcomm destinait à FLO TV, tentative avortée de créer un système de télévision mobile propriétaire.

Une lettre datée du  8 aout émise par le Wireless Telecom Bureau de la FCC mentionne que les deux affaires posent la question de l’accumulation de spectre de fréquence par l’opérateur sur tout le pays, avec beaucoup de zones de recouvrement.  Le premier résultat de cette lettre est de repousser au-delà de 180 jours le délai accordé par l’administration américaine pour donner son avis sur la proposition de transaction avec T-Mobile. Beaucoup en effet suspectent que l’opérateur ne cherche à reprendre une position de monopole sur un marché déjà fortement concentré. Il invoquait en effet le manque de fréquences pour racheter T-Mobile alors qu’il venait de racheter du spectre « en or » dans les bandes 700 Mhz à Qualcomm pour quelques 2 milliards de dollars en décembre dernier. Parallèlement le réseau de l’opérateur, quasiment vétuste, de mauvaise qualité aussi bien pour le fixe que le mobile et notoirement insuffisant pour supporter le trafic de ses consommateurs n’est modernisé qu’à travers des investissements faits au compte goutte et bruyamment médiatisés. Donc d’un côté, AT&T sort $41 milliards pour transformer silencieusement sa position  dominante en quasi monopole et de l’autre il n’investi pas suffisamment pour améliorer son réseau. Cette attitude n’est pas celle d’un industriel, mais tout simplement celle d’un spéculateur. Gageons que nos opérateurs nationaux ne se comportent pas de la même façon dans le problème de la fibre pour le haut débit, fixe ou mobile.

Les intéressés sont offusqués de la réaction de la FCC  

Immédiatement après la lettre de la FCC, les responsables indignés d’AT&T, Qualcomm et de Deutsche Telecom ont répondu sans vraiment apporter d’arguments contradictoires nouveaux.  Pour Deutsche Telecom, considérer les deux opérations ensemble serait identique à mélanger des « pommes (Apples) » et des « oranges ». Voila une image qui ne manque pas de subtilité quant on connait « la relation amoureuse » qui lie notre opérateur historique national et le constructeur de Cupertino… ! « Ce sont deux transactions entièrement distinctes, qui adressent différentes entités, différents publics, des termes différents et des intérêts publics différents. Il n’y a aucune base juridique ou politique sérieuse pour consolider les 2 opérations » explique Deutsche Telekom dans sa réponse à la FCC.  Dean Brenner Vice président des affaires institutionnelles de Qualcomm précise que « les bénéfices pour le public de cette vente s’affirment par eux même et ne sont absolument pas liés au rapprochement de AT&T et T-Mobile. » Il précise, et on imagine bien les trémolos offusqués  dans sa voix : « Le deal avec Qualcomm permettra de réutiliser du spectre 700Mhz découplé et non utilisé pour du haut débit mobile, et de cette façon facilitant l’Amérique à résoudre son problème de manque de fréquence et permettant à la FCC d’atteindre son but de réallouer 300 Mhz de fréquences au très haut débit mobile dans les 5 prochaines années ».

Il mentionne enfin que cet argent servirait à Qualcomm d’investir pour développer une nouvelle technologie spectralement plus efficace pour accélérer les transferts et permettre les premiers développements aux Etats Unis « stimulant ainsi la croissance économique des Etats Unis ainsi que la création d’emploi et améliorant la position de leadership des Etats Unis dans le sans fil.. » Le tout sans sourciller… ! Quant à AT&T, il s’offrait un communiqué langue de bois digne des déclarations du soviet suprême : « Nous pensons que la transaction avec Qualcomm a ses propres mérites. Nous nous félicitons que la commission ait rejeté les demande de consolider officiellement les deux accords et a expressément maintenu la possibilité que notre demande pour Qualcomm soit traitée avant celle de T-Mobile. Nous sommes confiants que la FCC approuvera les transferts de licences comme étant conforme à l’intérêt public. »

Consommateurs et industrie s’y opposent

Coté consommateurs, la perception est toute différente. Plusieurs associations de consommateurs avaient manifesté des réserves le jour de l’annonce du rapprochement avec T-Mobile à côté de nombreuses interrogations et des sourcils froncés d’une partie de la presse. Une coalition de groupes défendant les intérêts du consommateur s’est constituée autour de plusieurs organismes :  Free Press, Media Access Project, Public Knowledge, Consumers Union et the Open Technology Initiative of the New America Foundation, rejoint ensuite par plusieurs opérateurs sans fil locaux ou régionaux comme Cincinnati Bell Wireless, MetroPCS Communications, NTELOS, the Rural Cellular Association, the Rural Telecommunications Group et puis par Sprint Nextel dont le CEO, Dan Hesse indiquait que cette acquisition serait un « désastre absolu pour les consommateurs et l’économie américaine et conduira à encore plus de régulation ».

Le 27 avril, ils envoyaient une lettre à Julius Genachowski, Chairman de la FCC indiquant «  si le transfert de licence de Qualcomm et le rapprochement avec T-Mobile sont approuvés, il donneront encore plus de puissance a un opérateur sans fil déjà dominant pour imposer son contrôle sur les terminaux, le réseaux de transport et les consommateurs pour asphyxier complètement la concurrence. »

Opposition grandissante des politiques

Le dernier volet de l’opposition à cette opération est une opposition grandissante au sein du congrès. Même si celui-ci n’a pas à juger de l’opportunité de ce rapprochement, l’avis de certains politiciens à Washington est très écouté et AT&T n’a pas négligé d’intensifier son lobbying en déployant quelques millions de dollars auprès des Représentants et Sénateurs ou d’organismes qui leurs sont directement liés. A remarquer que les mécanismes du lobbying américain sont en général assez connus, cette activité étant quasiment officielle. Mais en France le lobbying n’existe pas officiellement, ses mécanismes sont donc assez obscures et difficiles à mettre à jour, certaines sociétés Françaises sont devenues maîtres en la matière.

Pourtant, le Sénateur Herb Kohl, Chairman du sous comité qui au Sénat examine les affaires anti-trust, avait provoqué une audition des responsables d’AT&T et de T-Mobile en mai dernier pour permettre aux protagonistes d’expliquer les raisons de ce rapprochement. Apparemment peu satisfait des conclusions de cette audition, il envoyait le 20 juillet dernier une lettre de 7 pages à Julius Genachowski Chairman de la FCC et au Procureur Général Eric Holder où il indique les nombreux points pour lesquels le rachat de T-Mobile par AT&T serait néfaste. « J’ai conclu que cette acquisition, explique le Sénateur,  si elle est autorisée, créerait de nombreux dommages à la concurrence et aux consommateurs, serait contraire aux lois antitrust et contraire à l’intérêt public, et devrait donc être bloquée par vos agences. »  La réaction de la FCC ne s’est donc pas faite attendre longtemps et pourrait conduire à une nouvelle forme de 1984 (qui avait vu le démantèlement du monopole d’AT&T). A noter que cette tendance à la reconstitution de monopoles à partir d’anciens monopoles d’Etats est un phénomène industriel très fréquent qui s’accélère avec la mondialisation. Elle mériterait d’être étudiée avec plus de précisions dans le secteur des télécoms, aussi bien aux Etats Unis qu’en Europe.

Smart Grid et sécurité : La Californie s’inquiète et agit

9 août 2011

Au début de ce mois d’Aout, au Cesar’s Palace à Las Vegas,  se tenait la Back Hat Conférence, le plus grand rassemblement d’experts et de hackers sur le thème de la sécurité des réseaux, des systèmes et des données informatiques. Mike Alperovitch vice Président de McAfee, maintenant filiale de Intel, présentait un rapport de 15 pages indiquant que 72 organisations internationales, des gouvernements, des entreprises et même les Nations Unies et le Comite Olympique International ont depuis plus de 5 ans, subit des intrusions de leurs systèmes informatiques, audacieuses et parfaitement organisées, apparemment d’une même et unique origine, qui ont permis de détourner d’énormes masses de données dont on ne sait pas quelle utilisation en sera faite. Certaines attaques ont été très brèves, quelques semaines, d’autres ont duré plusieurs mois, voire plusieurs années. « Que vont devenir toutes ces données s’interroge le rapporteur. Si même une petite partie d’entre elle est utilisée pour élaborer des produits concurrents ou bien comme informations stratégiques dans des discussions importantes, elles représentent une énorme menace économique… »  Si aucun nom n’a été officiellement cité jusque là, beaucoup d’indices portent les soupçons sur la Chine, pour qui ce genre de pratique d’intelligence économique semble aller de soi.

Une prise en compte au niveau fédéral américain

Peu de temps avant que cette découverte ne soit portée au grand jour, le Smart Grid Virtual Summit organisé à l’initiative de Cisco (qui utilisait Webex pour diffuser les conférences) pendant 2 jours sur le Web  à la fin du mois de juin, réunissait quelques dizaines de spécialistes du sujet pour aborder les nombreux aspects techniques, économiques et sociaux du développement du smart grid, principalement aux Etats Unis. Une demi-journée était entièrement consacrée aux problèmes de securité du smart grid et l’un des intervenants, Larry Karinsky, directeur du Cluster Project Safety mentionnait au cours d’un panel que depuis plusieurs mois, des personnalités dont Vinton Cerf, commissaire de la  Broadband Commission for Digital Development, Bob Lockhart analyste chez Pike Research ou encore Andy Bochman, chargé des problème de sécurité chez IBM et fondateur du blog Smart Grid Security ont dejà lancé des alertes sur la nécessaire prise en compte de la sécurité. Du côte de l‘administration américaine, le président Obama a très clairement indiqué en 2009 que le Smart Grid est vu comme une nouvelle plateforme d’innovation pour les entreprises américaines, mais son développement est très fragmenté car chaque société développe à son niveau des appareils et des technologies qui ne se parlent pas entre elles, comme ce fut le cas dans le monde de l’informatique personnelle. Mais plutôt que de reprendre l’approche de marché qui a prédominé lors de l’arrivée de l’informatique personnelle au grand profit de Microsoft, Obama développe une démarche plus proche de la démarche Européenne qui cherche à créer les normes d’interopérabilité avant même que les produits n’existent. Il a ainsi mis en place une plateforme ouverte de standards de façon à ce que les applications puissent fonctionner partout, plutôt que de développer un système d’exploitation de base.

Un retour sur investissement entre 2,8 et 6

Conscient des risques encourus, mais incapable pour l’instant de les identifier avec précision, Lee Kreva, directeur du projet Smart Grid de San Diego Gas & Electicity précisait: « Le smart grid s’appuie sur les technologies de l’information et nous courons le risque que ça aille très très vite… Nous ne pouvons pas prévoir où ça va aller… »  L’EPRI (Electric Power Research Institute) vient de publier une analyse coût/avantage du développement du smart grid aux Etats Unis. Le coût d’investissement et de développement des technologies nécessaires pour implémenter le smart grid aux Etats Unis serait de 338 à 476 milliards de dollars, pour un retour sur investissement compris entre 1,3 et 2 trillons de dollars. La même estimation réalisée en 2004 prévoyait un coût d’investissement et de développement à 168 milliards de dollars entre 2010 et 2030. Le retour sur investissement n’était pas mentionné à cette époque… mais le rapport citait simplement le coût des pannes et des disfonctionnements du système électrique américain (entre 104 et 164 milliards de dollars par an) ajouté aux 15-25 milliards de dollars supplémentaires dus à la mauvaise qualité de la puissance électrique.

La Californie veut protéger les consommateurs

Mais les consommateurs ne sont guère sensibilisés au smart grid. PG&E, la plus importante compagnie Californienne a déjà installé plus de 7,8 millions de compteurs intelligents et s’est fixé le chiffre de 10 millions d’ici 2012. Kevin Dasso, senior director du smart grid chez PG&E constate : « c’est un concept qu’ils ne comprennent simplement pas, nous sommes donc confrontés à un problème d’éducation à la base. La plupart des consommateurs ne pensent pas à l’électricité qu’ils consomment, sauf peut-être lorsqu’il y a des coupures de courant ou lorsqu’ils reçoivent leur facture d’électricité. » Après avoir requis l’année dernière leur vision du smart grid d’ici 2020 aux trois principales compagnies d’électricité Californiennes, la California Public Utilities Commission a reçu le 1er juillet dernier leurs propositions d’objectifs  et un planning de leurs stratégies pour atteindre les buts fixés. Le « compteur intelligent » peut connaitre la consommation en temps réel, certains compteurs peuvent même parler à des puces dans des « appareils électroménagers intelligents » via les réseaux de télécommunications fixes ou cellulaires. Ces appareils électroménagers peuvent même être contrôlés à distance par un simple téléphone cellulaire via le « smart meter » qu’ulitlise la compagnie d’electricité pour connaitre et contrôler la consommation dans la maison. Non seulement la sécurité sur les réseaux est loin d’être parfaite et certaines données peuvent intéresser les escrocs en tous genres, mais toutes ces données recueillies sur la manière dont consomment les ménages ont une valeur marketing importante. La grande question est de savoir qui possède ces données et qui aura  le droit de les utiliser ?  « Il y a pas mal de soucis au niveau fédéral explique Ernie Hayden, Responsable de la sécurité pour l’énergie chez Verizon, parce qu’on se rend compte que personne ne tient réellement la sécurité électrique sur le smart grid. » Il n’existe en effet aucune instance chargée de ces problèmes au niveau fédéral ou au niveau régional. Les seules qui ont une responsabilité au niveau local dit-il sont les Public Utility Commission

Une première législation sur la sécurité

Le 28 juillet dernier, la CPUC adoptait donc une décision dont le but est de standardiser les dispositions de privauté des données mesurées, et la sécurité des prix et des données d’usages pour les 3 grandes compagnies californiennes, PG&E, Southern California Edison et San Diego Gas & Electricity, ainsi que pour toutes les sociétés qui peuvent avoir accès aux données des consommations électriques des clients de ces sociétés. Cette décision de 171 pages qui avait été déposée en décembre 2009 impose désormais aux compagnes d’électricité de fournir aux consommateurs une mise à jour quotidienne des principales composantes du marché, minute par minute, comportant usage, prix et coûts. Les compagnies ont 90 jours pour faire des propositions afin de se conformer à ces nouvelles règles. Michael Peevey, président de la CPUC indiquait « les règles et les politiques que nous avons adoptées sont les premières dans ce pays et devraient servir de modèle au niveau national. Elles sont conformes aux principes adoptés par le Département Homeland Security et aux décisions 1478 du Sénat. » Les consommateurs auront donc un accès direct aux informations de prix et d’usages. « C’est une trame solide pour établir un équilibre entre la protection de la vie privée des consommateurs et la stimulation d’un nouveau marché pour des tierces parties. » indiquait Mark Ferron, commissaire à la CPUC.

Un modèle de développement

Le modèle californien est clair, d’un côté, on assure une certaine protection de la vie privée des consommateurs et la sécurité des données, mais de l’autre, on donne les moyens au marché de se développer plus rapidement en suscitant un foisonnement de sociétés tierces qui pourront apporter leur technologies et leur savoir faire sur le marché pour y développer nouveaux produits et nouveaux services. L’attitude du consommateur semble à priori beaucoup plus considérée en Californie qu’en France puisqu’il pourra plus librement choisir les technologies, les produits et des services qui se présenteront pour peu qu’ils respectent les termes de la décision sur la securité des données et la vie privé. Rappelons que ces technologies doivent aussi s’incorporer dans la plateforme d’interopérabilité définie par les instances nationales. Toute enfreinte, dont les conditions sont définies dans la décision de la CPUC, sera portée devant la commission qui devient maintenant l’agence responsable de la sécurité sur le smart grid, au niveau de l’Etat de Californie. Ce problème n’est pas encore vraiment adressé dans les 25 autres états qui ont commencé à mettre en oeuvre des politiques actives de déploiement de compteurs intelligents pour les foyers, les entreprises et des zones urbaines entières. Plusieurs problèmes ont déjà surgis dans cette nouvelle « bulle » silencieuse.

Les problèmes sont nombreux

En 2009 à Seattle, la société IOActive, société de consulting dans la securité, a montré qu’il était possible d’injecter des virus dans un smart meter générique de type AMI (Advanced Metering Infrastructure), virus donnant à un hacker le contrôle d’une partie ou de la totalité du smart grid, lui permettant de couper instantanément l’électricité dans des zones urbaines entières, ou bien plus spécifquement, de couper tous les téléviseurs connectés à un moment donné ou encore de s’attaquer à des secteurs critiques, industriels ou de l’administration en coupant l’électricité. Certains compteurs intelligents mis sur le marché disposent, selon les brochures marketing, d’un système d’encryption sophistiqué. Il s’agit en fait d’un simple mot de passe d’authentification. Les atteintes à la vie privée sont aussi une preoccupation montante au sein des Etats qui jusqu’à présent se sont plutôt occupé de définir des plans de développement. « Aujourd’hui explique Ernie Hayden de Verizon, tous les constructeurs, les fabricants de matériels et les grands distributeurs d’électricité disent qu’ils sont très concernés par la sécurité et la vie privée des consommateurs, mais personne n’est là pour le constater , le vérifier et le faire respecter! »

Un Français dans la « voix », David Gurlé DG de Skype

12 juin 2011
David Gurle, General Manager and Vice Presiden...

David Gurle, General Manager and Vice President Skype Enterprise

DBF est une association de Français dans la Silicon Valley crée en 1994 dont j’ai le privilège d’être le co-fondateur. Elle permet aux Français de la Silicon Valley de se rencontrer et de networker. Tous les premiers lundis de chaque mois, elle réunis donc une cinquantaine de français vivant sur place ou de passage et reçoit un hôte, un français qui est interviewe sur son itinéraire, sa vie, ses réflexions.

La semaine dernière, DBF recevait David Gurlé, aujourd’hui Vice Président & General Manager de l’Enterprise Division de Skype. J’avais eu l’occasion de rencontrer David Gurlé à plusieurs occasions aux Etats Unis  lors de conférences sur la voix sur IP alors qu’il était chez Microsoft,  sa vision de l’évolution de la voix sur IP m’avait déjà marqué. Il revient aujourd’hui chez Microsoft qui vient de racheter Skype. Au cours de cette longue vidéo de 1h15, il raconte son itinéraire.

Les 11 premières minutes de la vidéo sont consacrées à sa jeunesse et la conversation donne une bonne impression de ce que peut être la jeunesse d’un futur ingénieur Français qui passe une grande partie de son temps à l’étranger mais qui vient faire ses études en France.

David Gurlé débute sa carrière chez Digital Equipment (DEC) en France, un constructeurs de mini-ordinateurs qui n’a pas compris l’arrivée des PC et a fini par se faire racheter par Compaq, lui même racheté par HP qui était un des concurrents de DEC à l’époque, mais beaucoup plus petit que lui. Digital Equipment avait à cette époque installé à Sofia Antipolis son seul groupe de développement logiciel à l’extérieur des Etats Unis dont l’objectif était de travailler sur les mini-ordinateurs dans les télécommunications. Il a commencé à travailler sur SS7, un ensemble de protocoles définis par l’ITU qui permet la mise en œuvre des commutateurs téléphoniques, des SMS et d’autres services de télécommunication.

Après quelques temps, il entre eu CNET, alors laboratoire de recherche de France Télécom à Sofia Antipolis. Cette région était à l’époque un haut lieu de la R&D en télécommunications puisque IBM, Texas Instrument et beaucoup d’autres grands constructeurs y avaient leurs laboratoires de recherche… Il nous donne une petite vision de la vie dans les Labs de Franbce Télécom à l’époque… ! C’était il y a longtemps.

Ensuite, il entre à l’ETSI, organisme Européen de normalisation dans le secteur des télécommunications et il travaille sur la phase 2 des normes du GSM. Il spécifie les interfaces d’interconnexion des réseaux SMS, découvre aussi la voix sur IP en 1995 sur les réseaux RNIS.. (à 128 Kb par seconde maximum), et travaille sur la normalisation du Broadband voix sur IP sur ATM. Mais  ATM allait au mur, bien que fortement poussé par France Télécom. Il contribue à l’ETSI à l’arrêt des travaux sur la normalisation d’ATM. La voix sur IP est en pleine naissance mais beaucoup de gens à ce moment là pensent que ca ne marchera jamais. Il écrit cependant certaines spécifications de normalisation de la voix sur IP… et finalement il écrit un livre sur l’IP Téléphonie qui devient un best seller dans le milieu des télécommunications.

Il passe ensuit chez Vocaltech et s’installe en Israel pendant 2 ans où il s’occupe des alliances de la compagnie et développe des compétences non technologiques.  Il devient aussi  très connu dans le monde de la voix sur IP grace à ses travaux sur la normalisation.

Alors qu’il s’apprête à faire la Wharton Business School aux Etats Unis en 1999, il est chassé par Microsoft et après une semaine d’interview à Redmond, passés avec succès, il reçoit plusieurs offre parmi lesquelles il ne sait pas choisir. On lui propose alors de s’installe à Redmond pour « faire ce qu’il veut ». Il devient donc Programm Manager chez Microsoft et on lui propose de prendre un produit de télécommunication que Microsoft voulait vendre aux équipementiers.  Mais après une rapide évaluation de ce produit, il le juge dépassé et demande à ce que le produit, dévelopé par une équipe de 35 personnes, soit basculé vers la téléphonie sur Internet. Il se retrouve face à Bill Gates qui lui donne le produit à refaire, avec toute l’équipe de développement….Il reste pendant 5 ans chez Microsoft où il est le Monsieur communication. Il participe au développement de  Netmeeting, Tapi, Windows Live Messenger, Exchange IM, Office communication server etc…

En 2003, au court d’un golf, alors que tout allait bien pour lui chez Microsoft, il est approché par un ami qui lui propose de partir chez Reuters avec une proposition financièrement très intéressante alors que les stocks options de Microsoft stagnaient depuis longtemps en dessous de leur prix d’émission et que les salaires, relativement bas, n’avaient pas été réévalués depuis longtemps. Il part donc sur la côte Est s’installer chez Reuters qui était au plus bas, avec une proposition de développer les communications en temps réel sur les marchés financiers. Après New York, il s’installe à Singapour où il supervise l’ensemble des développements de télécommunication de la société. Il fait une jolie culbute financière lorsque Reuters est racheté par Thompson.

A Singapour, il est approché par Silverlake,  les investisseurs de Skype qui ont racheté Skype à eBay. En 2010, il s’installe donc à Londres et crée l’Enterprise Business Unit de Skype, c’est-à-dire le secteur communication d’entreprise de skype qu’il dirige encore et dont le chiffre d’affaire croit très rapidement. Son rôle est de développer la pénétration de Skype dans les entreprises et de le monétiser. Il met en place une nouvelle stratégie qui déplace toute l’équipe de développement à Palo Alto (ils étaient répartis en Suède et en Europe de l’Est) et il crée Skype Connect qui permet de connecter Skype à des PBX d’entreprise…et bien d’autres choses. Pour plus d’informations sur la stratégie et les évolutions prévues de Skype , voir le prospectus S1 auprès de la SEC.

Microsoft vient de racheter skype pour 8 milliards de dollars, mais le deal n’est pas encore confirmé et il faut attendre que la CEE l’approuve. Chez Skype, c’est donc « business as usual ». Ce que Microsoft veut faire avec l’équipe n’a pas encore été véritablement discuté, il est donc trop tôt pour avoir une idée plus précise. Microsoft a vraiment voulu acheter Skype, ça ne s’est pas fait par hasard ou pour d’autres raisons. Microsoft a compris qu’il était important d’investir sur la communication en temps réel come étant le système nerveux de communication de toute sa plateforme. Ca n’est pas seulement une acquisition de surface, mais un changement complet de paradigme sur les communications en temps réel dans le « future computing ».  Un jour Oracle devra faire ça. Tous ceux qui sont dans l’applicatif n’auront pas le choix.

David Gurlé caresse aussi l’idée de monter une entreprise. Ses reflexions sont orientées sur le rôle des managers dans l’entreprise et les outils dont ils pourraient s’adjoindre pour travailler mieux et être de meilleurs managers. Un MBA ne donne pas les moyens de développer les qualités managériales des gens, on leur apprend a faire des tableurs, à aligner des chiffres, à réfléchir à des stratégies,  mais il pense qu’il y a des opportunités pour que chaque manager ait accès à des  ressources auxquelles seuls les élites (les top managers) ont accès.. Comment trouver et s’adjoindre ces outils de l’excellence… ? Il n’y a en effet pas de contrôle de qualité des manager et ils n’ont pas vraiment les moyens de s’améliorer.

David Gurlé répond enfin à plusieurs questions de l’audience. Skype va mettre en place un système de vidéo conférence de type Webex grâce à un deal avec Citrix (Go to Meeting) pour développer un OEM qui sera intégré dans skype. Skype sera-t-il SIP? Skype est déjà compatible avec SIP par l’intermédiaire de Skype Connect mais le protocole de Skype ne sera pas converti en natif SIP. Il restera propriétaire, mais ouvert. Le Web Conferencing était la principale caractéristique manquante, c’est ce qui est en cours de préparation.

La sécurité sur skype ?  Skype n’est pas un service de télécom au sens classique tu terme et gardera cette position pour le moment. Le protocole de Skype n’est pas décryptable…il ne l’a pas été jusqu’à présent. On ne police pas skype, il y a une politique de liberté d’utilisation et elle continuera.

Les évolutions de Skype ? Lorsqu’on consomme de la communication, on se met dans un certain contexte qui s’établi en fonction des données consommées et échangées. Mais aujourd’hui, l’outil ne fait rien pour connaitre ce contexte qui a une importance capitale sur l’information que les utilisateurs veulent faire passer.  Ce contexte donne plus de valeur à la communication réalisée entre deux ou plusieurs individus. Les évolutions de Skype vont  vers l’intégration du contexte au points d’entrée des données parce que l’échange d’information sera plus riche. On intégrera les outils de communication dans les outils auteurs (authoring tools).  Il s’agit en quelques sortes de mettre en place de la « rich comunication ». Le contexte peut aussi être  dynamique, et les ordinateurs disposent des éléments qui permettent de savoir comment ce contexte évolue. Un ordinateur peut travailler en background et améliorer sa connaissance de l’évolution du contexte pour faire du  matching et rechercher des informations  pertinentes liées à  la communication entre 2 ou plusieurs personnes. Il est donc possible d’enrichir le contexte. Ca sera la prochaine révolution.

La valorisation de skype lors de l’acquisition par Microsoft dénote les revenus potentiels qui n’ont pas encore été réalisés. La pub sur Skype est arrivée seulement cette année au mois de mars… Skype est dans le club très fermé des 100..100.. 100 du Web. L’ADN de GE est son management c’est ce qui en fait la valeur. Ebay n’a pas su trouver son ADN lui permettant d’utiliser Skype. Enfin, l’ouverture de Skype a été un sujet de négociation intense au cours du rachat par Microsoft. Steve Ballmer ne devrait pas casser l’aspect ouvert de Skype, il l’a dit. Les raisons qui l’empêchent de changer est que le monde des communications est hybride, il n’y a pas de système unique… c’est pas possible.

Merci à Aline Dinoia pour la vidéo.

Enhanced by Zemanta

Google, un bon citoyen qui investi dans le vent

7 juin 2011

Le géant du Web confirme son intérêt et son implication dans les énergies renouvelables en investissant $55 millions dans un projet qui sera ensuite loué au constructeur Terra-Gen Power, maitre d’œuvre d’un vaste projet de ferme éolienne appelé Alta Wind Energy Center (AWEC) dans les pays indiens du Ken County, près du désert de Mojave en Californie du Sud.

$400 millions d’investissement dans les énergies renouvelables

Cette nouvelle contribution, qui ne provient pas du vecteur d’investissements Google Ventures mais est prise sur le budget de la division Green Business Operations de la compagnie, porte à $400 millions l’ensemble des investissements de Google dans les énergies renouvelables, éoliennes et solaires. Parmi ces investissements, Google signait l’année dernière un deal sur 20 ans avec la société NextEra pour acheter 114 megawatts d’énergie éolienne afin d’alimenter ses datacenters dans l’Iowa.

De même, en 2009, Google achetait une usine de pâte à papier au bord de la mer à Harmina en Finlande, soulevant quelques inquiétudes locales… Il y a quelques jours il annonçait à cet endroit l’ouverture prochaine d’un vaste datacenter entièrement et naturellement réfrigéré par l’eau de mer. En avril dernier, Google a pris le contrôle de la ferme éolienne Shepherds Flats de 845 MW en Orégon pour $100 millions, quelques jours après avoir investi $168 millions dans la ferme solaire Ivanpah Solar Electric Generating System de 2600 MW gérée par Bright Source Energy.

Le plus important projet éolien aux Etats Unis

Le projet AWEC de ferme éolienne est probablement l’un des plus important projet de ferme éolienne aux Etats Unis. Il doit se développer en 5 tranches ou projets successifs appelés Alta I à V qui pourront déployer jusqu’à 1550 megawatts une fois achevées, suffisamment pour alimenter 450000 foyers. Google est impliqué dans ce projet avec la Citi Bank (dont le montant des investissement n’a pas été précisé) à travers un investissement dans la tranche spécifique Alta IV du projet global, cette tranche devant produire102 MW, alors que la Citi est plus impliquée dans les tranches Alta II et V. Les éoliennes sont construites par la société Vestas. Initiées en mars 2010, les tranches en place produisent déjà 720 MW, revendus à la compagnie d’électricité Southern California Edison. Terra-Gen Power qui a dejà levé plus de $1.2 milliards de financements pour l’ensemble du projet à pour mission d’installer et de gérer l’ensemble de la ferme éolienne sur le long terme.

De plus larges ambitions

Google dans son communiqué de presse précise que la puissance initiale du projet était de 3000 MW. Ce projet AWEC fait partie d’un projet plus large appelé TRTP (Tehachapi Renewable Transmission Project) qui devrait produire 4500 MW basés sur la production, le stockage et le transport de différentes énergies renouvelables. AWEC a pour but d’aider l’Etat de Californie à atteindre ses objectifs contenus dans la régulation dite RPS (Renwable Portofolio Standard). Pour la Californie, le RPS était signée par Arnold Schwarzenegger en novembre 2008 avec comme objectif de passer à 33% de la consommation totale d’énergie en Californie, la part des énergies renouvelable d’ici 2020. Ce taux qui avait été précédemment fixé à 20%. Selon Google, le site AWEC, une fois mis en œuvre complètement, augmentera de 30% la capacité de production éolienne de la Californie.

On comprendra bien que les ambitions de Google ne sont pas simplement altruistes. Ces investissements viennent en appui de sa stratégie de développement de Data Center dont il cherche à réduire les coûts de fonctionnement pour permettre aux Internautes de créer et stocker encore plus de contenu et de les faire circuler sur le net… Cette attitude d’investissement citoyen, à usage industriel, pour accompagner le développement d’Internet en respectant les normes du développement durable, méritait d’être signalée.

ORANGE FRANCE TELECOM : VERS LA FIN DES ILLIMITES

6 juin 2011

France Télécom semble beaucoup envier la situation de ses confrères opérateurs américains qui leur permet d’augmenter leurs tarifs comme ils veulent sans grand contrôle de la part de la FCC. Stéphane Richard, PDG de Orange France-Télécom a désormais ses entrées au Wall Steet Journal et il en profite largement pour exprimer et faire passer un certain nombre de messages qui entrent dans une vaste campagne de sensibilisation destinée à faire admettre au grand public la version « opérateurs » de la Neutralité du Net, élément clé de la nouvelle stratégie de l’opérateur historique. A la fin du mois de mai, la veille de son intervention au e-G8, Stéphane Richard accordait une nouvelle interview au Wall Street Journal (Allthingsdigital) publié par Dow Jones and Co lui-même détenu par News Corp dont le propriétaire est Rupert Murdock, lui aussi invité par Nicolas Sarkozy au e-G8,. Dans cette rubrique du Wall Street Journal, dédiée aux technologies numériques, il y parle un peu plus librement et donne un certains nombre de précisions techniques sur cette guerre de position qui oppose les vieux opérateurs de télécommunication (FT, AT&T, Verizon, Comcast, Deutsche Telekom, Vivendi, Vodaphone, etc… ) aux nouvelles sociétés du numériques (Facebook, Apple, Google, Amazon, Skype, Groupon, Linkedin, etc…) qui proposent leurs nouvelles infrastructures de services  au dessus (over the top) de la tuyauterie des réseaux fixes et mobiles.

Contrôler l’utilisateur et avoir la main sur son portefeuille

Dans un premier temps, l’auteur de l’interview fait remarquer que le réseaux de France Télécom est celui qui « supporte » le plus d’iPhone dans le monde, après celui d’AT&T. Dans les coulisses de France Télécom, il est reconnu que les responsables  groupe n’aiment pas l’iPhone, même si il apporte beaucoup de chiffre d’affaire, d’une part parce qu’il augmente de façon significative le trafic sur le réseau, d’autre part parce que France Télécom doit payer des redevances à Apple, enfin et surtout parce qu’Apple dispose d’un lien très fort avec ses utilisateurs et d’un fort pouvoir de contrôle par le biais des applications et du contenu téléchargé sur l’Appstore et iTunes. « Chacun devrait les remercier d’avoir mis un tel produit sur notre marché » rappelle pourtant Stéphane Richard, mais très ouvertement à l’intérieur de France Télécom, on joue Android contre l’iPhone parce que Android est un système plus ouvert qui permet à l’opérateur d’avoir entièrement la main sur l’utilisateur et, plus important encore, sur son portefeuille. Stéphane Richard ajoute : “Pour moi, le risque théorique est, plus que tout autre chose, que Google puisse utiliser les releases d’Android comme une arme dans leurs relations avec les fabricants de terminaux (smartphones) et indirectement contre les telcos. Cependant, ils n’ont pas réellement essayé de le faire. »

La neutralité du Net est un moyen d’y parvenir

Stéphane Richard aborde ensuite candidement  la neutralité du Net et précise: “ Tout le monde parle de la neutralité du Net, mais la neutralité du net n’est pas seulement un problème de gestion de tuyaux… Elle s’étend aussi à la gestion des boutiques d’applications… Si vous avez des gens comme Apple qui gèrent leurs boutiques d’applications et disent: celle-ci-est OK mais je ne veux pas voir cette application dans ma boutique, alors il y a un problème… » En effet, examinons comment les opérateurs ont pendant longtemps empêché la mise en œuvre de l’application de Skype sur les téléphones mobiles… en empêchant cette application de fonctionner sur leurs réseaux. La démarché est la même qui est reprochée par Stéphane Richard, avec des moyens différents et la dépendance à l’opérateur est alors plus profonde, particulièrement dans un marché comme celui des Etats Unis où les 2 opérateurs télécom  se partagent le marché dans un oligopole exemplaire avec un unique opérateur de câble (Comcast) et un régulateur impuissant. Les services innovants ne viennent en effet pas des opérateurs.

Faire payer la consommation des données

L’article rappelle ensuite plusieurs positions de Stéphane Richard exprimée à la fin de 2010 sur le sujet. «  Les opérateurs de services noient les réseaux sans aucune incitation, dit-il, il est nécessaire de mettre en place un système de paiement par les opérateurs de services en fonction de leur utilisation » Plus loin il ajoute… « Nous allons progressivement nous écarter de l’approche illimitée qui a été la marque de fabrique de notre industrie vers quelques choses de plus sophistiqué ». En d’autres termes, les opérateurs vont encore plus souvent se prendre les pieds dans le tapis avec des activités marketing encore plus sophistiquées et encore plus coûteuses pour mieux contrôler et augmenter la facture de l’utilisateur final.   En 2010,  Giuseppe de Martino, Directeur juridique de Dailymotion précisait : « Actuellement, environ 40% de nos dépenses sont déjà de toute façon dans le réseau- serveurs, peering, notre propre réseau de livraison de contenu et d’autres ressources.. Si les opérateurs téléphoniques veulent que nous partagions leurs dépenses, peut-être on devrait alors parler de partager leur revenus d’abonnement aussi… ». Dailymotion partage maintenant les revenus de France Télécom, tout simplement parce qu’il a été racheté par France Télécom en début de cette année…

Négociations avec Apple, Appstore et carte SIM

Revenant sur les relations avec Apple, Stéphane Richard précise que des négociations ont eu lieu sur différents points. . « Nous avons pu arriver à des solutions avec les gens d’Apple, mais si ils sont un peu durs… On est capable de trouver des solutions, nous ne sommes pas en guerre, mais c’est vrai que ça peut être dur.  Bien sûr, nous préférerions voir ces services enfouis dans le terminal comme nous le faisons avec Android (sur les terminaux Samsung ou HTC). Ca n’est pas possible avec Apple. Nous devons continuer d’apporter ces applications à nos clients à travers l’appstore, sachant clairement que nous avons accès à l’appstore. »  Et il menace…« En cas de problème, nous irons devant la justice…si par exemple Apple dit, je ne veux pas de cette application… » Apple a aussi travaillé depuis plusieurs années à réduire la taille des cartes SIM pour réduire encore la taille de l’ iPhones. Il aurait aussi envisagés un iPhone sans carte SIM, au sein d’un programme appelé e-SIM project ou encore une carte SIM modifiée qui lui permettrait de s’insérer facilement entre l’opérateur et l’abonné.  Stéphane Richard indique : «  Nous leur avons tous dit que c’était une mauvaise idée (de supprimer la carte SIM) parce que c’est une pièce cruciale de la sécurité et du processus d’authentification. » A noter que certains opérateurs américains comme Verizon ne l’utilisent pas et ne connaissent pas plus de problèmes de sécurités que d’autres…). Il poursuit : «  cela serait très difficile pour les opérateurs téléphonique de gérer leurs relations clients…Je pense qu’ils ont compris ce point. Nous avons eu un échange et un dialogue très constructifs avec eux. Nous allons travailler avec eux pour standardiser un nouveau format de carte SIM qui prenne en compte nos besoins de sécurité et d’authentification qui soit aussi compatible avec leurs souhaits en termes de taille. »  

Cri d’alarme au e-G8 : « Le réseau risque de s’écrouler »

Au cours de cette interview, il place une idée qu’il exposait le lendemain au cours de sa présentation au e-G8 en indiquant que le réseau pourrait s’écrouler à cause d’un trafic trop important. Il crie au loup… En effet, la stratégie des opérateurs en matière de capacité de réseau est très ouvertement de ne pas investir selon les besoins, mais en dessous, de façon à toujours maintenir une pression et une certaine rareté sur la bande passante, et ainsi en maintenir la valeur… « Nous sommes les gens qui tiennent les tuyaux » rappelle-t-il. Il voit un problème « parce que les gens qui créent le trafic ne sont pas réellement incités à gérer le trafic proprement et globalement » comprenez : le gérer de la manière dont le voient les opérateurs qui considèrent les tuyaux, et les fréquences comme leur propriété personnelle.  Cette vision passe encore aux Etats Unis, mais elle passe de plus en plus difficilement en Europe ou encore dans les pays en voie de développement pour qui le décollage dépend de ces infrastructures et rend l’utilisateur entièrment captif de celui qui détient l’infrastructure et impose des péages un peu partout.

Stratégie de restriction de la bande passante

Cette stratégie de restriction de la bande passante est donc aussi un bon moyen de faire pression sur les gouvernements qui cherchent à le réguler et de presser l’utilisateur pour maintenir l’ARPU, tout en criant à qui veut bien l’entendre que la concurrence est odieusement avantagée par des positions monopolistiques, savamment protégées à l’étranger.  Or le coût de la bande passante ne cesse en effet de baisser dans un mécanisme à peu près identique à celui de la loi de Moore dans les PC. Il est reconnu que le coût des réseaux de fibre optiques sont pour plus de 70% dans le génie civil (les tranchées qu’il faut creuser pour y mettre la fibre) et que le prix des matériels baisse alors que la capacité de bande passante d’une fibre continue d’augmenter de façon vertigineuse (32 terabits/seconde pour une seule fibre).  Mais plutôt que de répercuter cette baisse de coût à l’utilisateur comme l’a fait Intel pendant des années avec le coût des processeurs dans des PC toujours plus puissants et moins chers (à noter que les investissements de Intel en outils de productions et en R&D sont énormes…), les opérateurs préfèrent faire plus de marge pour payer leurs dettes, des dépenses somptuaires dans les contenus et imaginer de nouvelles stratégies marketing inutiles pour verrouiller leurs abonnés. La position monopolistique des opérateurs  se fait sur le dos de l’utilisateur alors que les positions monopolistiques d’un Microsoft ou d’un Intel avec le PC, d’un Facebook ou d’un Google profitent particulièrement à l’utilisateur final puisqu’elles lui apportent des services nouveaux et des possibilités nouvelles à des coûts nuls ou fortement décroissants.

La question qu’il aurait fallu poser au e-G8

Stéphane Richard conclue son interview au Wall Street Journal en disant, sans mentionner directement la bande des 4 (Google, Facebook, Apple et Amazon).  « Il y a un déséquilibre dans le système général, ce qui de notre point de vue est un problème majeur… Il est totalement impossible d’absorber une telle explosion du trafic sans premièrement, clairement investir massivement dans le spectre et les équipements et deuxièmement sans introduire de nouvelles approches de fixation des prix. »  Maurice Levy, le PDG de Publicis a « oublié » de poser la question à Mark Zuckerberg ou à Eric Schmidt de savoir ce qu’ils pensaient du cri d’alarme de Stéphane Richard. En effet, alors que les 4 (et d’autres encore) sont en train de créer de véritables infrastructures de services qui utilisent des tuyaux qui « appartiennent » aux opérateurs, ne sont-ils ils pas inquiets d’entendre Stéphane Richard dire que ces tuyaux risquent d’exploser parce qu’il n’investi pas suffisamment pour garder le contrôle des utilisateurs? A quelle stratégie de backup ont-ils pensé pour se passer des opérateurs le jour où cela arrivera? Il est certain qu’ils y reflechissent…

Enhanced by Zemanta