Archive for the ‘Europe’ category


5 février 2016

Do Consumers Really Want an IoT? The most active market is B2B… IoT is commoditization Where is the value? Security is an afterthought…

DSC01783.JPGCedric Hutchings & Eric Carreel, CEO and chairman of Withings with Henri Seydoux, CEO of Parrot at CES Unveiled

At CES, the CTA organization said that the market for Connected Objects will reach $278 Billion in 2016…! Everything at CES was about connected objects… This number include almost everything because today, everything is connected.. TV, Smartphones, Hifi, Tablets, Wearbles, smart home, health, security, cars, glasses, perfume, toilets, etc…

What are consumers looking for when they speak “connected objects”.. So many things… !  IoT doesn’t look to be a market… and in fact it isn’t. We have to dig deeply in many different categories to identify real needs and to get real consumers who buy and use specific products regularly, most of them are already commoditized and many connected objects are no longer used. Doeas this mean most of the numbers are wrong…?

Consumers plan to cut spending on techIoT is not projected to pick up the slack.

Accenture, has completed a major consumer opinion survey and produced a report – Igniting Growth in Consumer Technology (28,000 interviews, 28 countries)  – One of the results is: Technology consumers simply aren’t in gadgetry mood and when questioned offer two reasons.

First, they are happy with their tech pretty much as it is and aren’t yearning to buy newer/better smartphones, PCs  or tablets. Connected watches and wearables might have looked like being the next big thing a year or so ago, but while there was an initial flurry of buying (Apple Watch, remember?) that has now faded away and only about 13 per cent of consumers think they might be in the market for one of those.  It’s the same story with fitness gadgets and surveillance cameras. Nerdy IoT stuff like thermostats and personal drones stimulates even less interest and tends to languish down in single digit ‘buying intent’ territory.

Users and IoTSource: Accenture

So they’re not upgrading as quickly the ‘things’. Why?

It could be that there is still a perception that many (perhaps most) of those ‘things’ are in the ‘connected toothbrush’ realm and therefore are simply not worth buying at just about any price. But in fact one big reason (at N°2) as stated in the Accenture report is  ‘security and privacy’. Put simply, consumers are worried about exposing their personal information and personal behavior to organizations primed to chase them.

How much more rapacious the activity will become when the entire house, the car, full of personal gadgets, are primed to report house and car owners’ behavior back to Samsung Amazon, Apple or Google?

Security and privacy…

Accenture says: “Price, security and ease of use remain barriers to adoption of IoT devices and services. For the majority of consumers, the lack of a compelling value proposition is reflected in concern over pricing. Security is no longer just a nagging problem, but a top barrier as consumers choose to abandon products and services over security concerns.”

The future success of IoT doesn’t just rely on connected homes and gadgets, but they are being factored in as an important component. “Growth in new categories will happen—and when it does, it can happen very quickly—but the industry needs to move NOW to drive [progress]” The value is not in the object. Generally it is related to a mix between service, usage, price, data and communities.

new study, published by Harvard University and funded by the Hewlett Foundation, debunks the notion that surveillance agencies are struggling with a data blackout. On the contrary, it argues, the rise of connected devices (the so-called Internet of Things) presents massive opportunities for surveillance, bolstered by technology companies having business models that rely on data-mining their own users — providing an incentive for them not to robustly encrypt IoT data.

“In the longer term, the Internet of Things means ubiquitous surveillance. If an object “knows” you have purchased it, and communicates via either Wi-Fi or the mobile network, then whoever or whatever it is communicating with will know where you are. Your car will know who is in it, who is driving, and what traffic laws that driver is following or ignoring. No need to show ID; your identity will already be known. Store clerks could know your name, address, and income level as soon as you walk through the door.”

What makes a connected object?

Electronic components : Commodities. Sensors and microcontrollers. They are cheap, easy to build.. Connected Objects are already  commodities. Many of them are sold on the internet or are bundled into existing products (appliances). Some of them like wearable and watches are bundled and connected to a smartphone. What value does the object alone brings to the consumer?   

Networks :  Commodity pipes. To transmit the data. There are many networks : fix, mobile 2G/3G/4G, WiFi, Bluetooth, Zigbee, Zwave, Thread, LoRa, SigFox… The issue is who owns them: Telco or not Telco? How much will they charge?  It took 10 years for the Telcos to find a business model in mobile phone… Cellphones were a competitor for fixed lines and Internet created the smartphones. Wifi was hated by Telcos… (Typical silo approach).

Data : Commodity. They come from the use of the objects. Lots of data generated. They need to be gathered by someone to be stored, analyzed and used.  What to do with the data?

Storage: Can be local or remote… Commodity. Who owns it? Who has access to it (the data) ?

Security: Ipso Alliance (an open, informal  association that promote the value of using the Internet Protocol for the networking of Smart Objects) recently added security to its goals.  “we are turning our efforts to ensuring that smart objects have identity, privacy and security attributes. Addressing these issues is critical to securing the IoT and all of its Data…”

How such an assemblage of commodities can make real and sustainable business models? Some answers are “collective usage”, “sharing economy”, “communities of users”, “industrial processes”, “data collection and analytics”, “security”, “remote and or automatic monitoring”, “optimization of processes” , “transportation”, “physical regulation”, “specific risk analysis” etc.

Another major unfulfilled promise is interoperability…Most of these IoT devices do not work with each other, they cannot exchange data, there data don’t have the same format, they work on different standards, they are triggered by different applications with different interfaces and they are connected with different networks… Demos show an idyllic perfect world where everything is working and interacting smoothly to the benefits of a happy reunited (even if dispersed) family in one click, now relying on artificial intelligence and data generated profiles  to take care and solve their problems before they happen… A life in heaven…!

Industrial IoT before IoT for people…

In a 140 page report The Internet of Things: Mapping the Value Beyond the Hype report, McKinsey & Company is more upbeat, but mainly regarding the industrial developments of IoT (B2B), an absolute necessity before customers could reap the real value of it (B2C). It is projecting that the Internet of Things (IOT)—meaning sensors and actuators connected by networks to a computing system—will see between $4 tillion up to $11.1 trillion a year economic impact by 2025, most of it being developed in the enterprise market.

Our central finding is that the hype may actually understate the full potential of the Internet of Things—but that capturing the maximum benefits will require an understanding of where real value can be created and successfully addressing a set of systems issues, including interoperability. Rather than just analyzing IoT uses in vertical industries, we also look at settings, such as cities and worksites. This shows how various IoT systems can maximize value, particularly when they interact.

We estimate a potential economic impact—including consumer surplus—of as much as $11.1 trillion per year in 2025 for IoT applications in nine settings: Factories (between 1 and 4 $ trillion), Cities(between 1 and 2 $ trillion, Human health monitoring (between 0.2 and 1.6 $ trillion), Retail (between 0.4 and 1.2 $ trillion,  Outside, Work sites, Vehicles( between 0.2 and 0.7 $ trillion)  , Homes (between 0.2 and 0.3 $ trillion), Offices.”  

The report mentions also crucial points as:  interoperability, data and intelligence, embrace data-driven decision making, B2B applications, IoT value in developing economies, capture the real benefits of vertical applications as health…incumbent should create new business models with IoT, continue to innovate in technologies, improve on privacy and security….  


Un Français dans la « voix », David Gurlé DG de Skype

12 juin 2011
David Gurle, General Manager and Vice Presiden...

David Gurle, General Manager and Vice President Skype Enterprise

DBF est une association de Français dans la Silicon Valley crée en 1994 dont j’ai le privilège d’être le co-fondateur. Elle permet aux Français de la Silicon Valley de se rencontrer et de networker. Tous les premiers lundis de chaque mois, elle réunis donc une cinquantaine de français vivant sur place ou de passage et reçoit un hôte, un français qui est interviewe sur son itinéraire, sa vie, ses réflexions.

La semaine dernière, DBF recevait David Gurlé, aujourd’hui Vice Président & General Manager de l’Enterprise Division de Skype. J’avais eu l’occasion de rencontrer David Gurlé à plusieurs occasions aux Etats Unis  lors de conférences sur la voix sur IP alors qu’il était chez Microsoft,  sa vision de l’évolution de la voix sur IP m’avait déjà marqué. Il revient aujourd’hui chez Microsoft qui vient de racheter Skype. Au cours de cette longue vidéo de 1h15, il raconte son itinéraire.

Les 11 premières minutes de la vidéo sont consacrées à sa jeunesse et la conversation donne une bonne impression de ce que peut être la jeunesse d’un futur ingénieur Français qui passe une grande partie de son temps à l’étranger mais qui vient faire ses études en France.

David Gurlé débute sa carrière chez Digital Equipment (DEC) en France, un constructeurs de mini-ordinateurs qui n’a pas compris l’arrivée des PC et a fini par se faire racheter par Compaq, lui même racheté par HP qui était un des concurrents de DEC à l’époque, mais beaucoup plus petit que lui. Digital Equipment avait à cette époque installé à Sofia Antipolis son seul groupe de développement logiciel à l’extérieur des Etats Unis dont l’objectif était de travailler sur les mini-ordinateurs dans les télécommunications. Il a commencé à travailler sur SS7, un ensemble de protocoles définis par l’ITU qui permet la mise en œuvre des commutateurs téléphoniques, des SMS et d’autres services de télécommunication.

Après quelques temps, il entre eu CNET, alors laboratoire de recherche de France Télécom à Sofia Antipolis. Cette région était à l’époque un haut lieu de la R&D en télécommunications puisque IBM, Texas Instrument et beaucoup d’autres grands constructeurs y avaient leurs laboratoires de recherche… Il nous donne une petite vision de la vie dans les Labs de Franbce Télécom à l’époque… ! C’était il y a longtemps.

Ensuite, il entre à l’ETSI, organisme Européen de normalisation dans le secteur des télécommunications et il travaille sur la phase 2 des normes du GSM. Il spécifie les interfaces d’interconnexion des réseaux SMS, découvre aussi la voix sur IP en 1995 sur les réseaux RNIS.. (à 128 Kb par seconde maximum), et travaille sur la normalisation du Broadband voix sur IP sur ATM. Mais  ATM allait au mur, bien que fortement poussé par France Télécom. Il contribue à l’ETSI à l’arrêt des travaux sur la normalisation d’ATM. La voix sur IP est en pleine naissance mais beaucoup de gens à ce moment là pensent que ca ne marchera jamais. Il écrit cependant certaines spécifications de normalisation de la voix sur IP… et finalement il écrit un livre sur l’IP Téléphonie qui devient un best seller dans le milieu des télécommunications.

Il passe ensuit chez Vocaltech et s’installe en Israel pendant 2 ans où il s’occupe des alliances de la compagnie et développe des compétences non technologiques.  Il devient aussi  très connu dans le monde de la voix sur IP grace à ses travaux sur la normalisation.

Alors qu’il s’apprête à faire la Wharton Business School aux Etats Unis en 1999, il est chassé par Microsoft et après une semaine d’interview à Redmond, passés avec succès, il reçoit plusieurs offre parmi lesquelles il ne sait pas choisir. On lui propose alors de s’installe à Redmond pour « faire ce qu’il veut ». Il devient donc Programm Manager chez Microsoft et on lui propose de prendre un produit de télécommunication que Microsoft voulait vendre aux équipementiers.  Mais après une rapide évaluation de ce produit, il le juge dépassé et demande à ce que le produit, dévelopé par une équipe de 35 personnes, soit basculé vers la téléphonie sur Internet. Il se retrouve face à Bill Gates qui lui donne le produit à refaire, avec toute l’équipe de développement….Il reste pendant 5 ans chez Microsoft où il est le Monsieur communication. Il participe au développement de  Netmeeting, Tapi, Windows Live Messenger, Exchange IM, Office communication server etc…

En 2003, au court d’un golf, alors que tout allait bien pour lui chez Microsoft, il est approché par un ami qui lui propose de partir chez Reuters avec une proposition financièrement très intéressante alors que les stocks options de Microsoft stagnaient depuis longtemps en dessous de leur prix d’émission et que les salaires, relativement bas, n’avaient pas été réévalués depuis longtemps. Il part donc sur la côte Est s’installer chez Reuters qui était au plus bas, avec une proposition de développer les communications en temps réel sur les marchés financiers. Après New York, il s’installe à Singapour où il supervise l’ensemble des développements de télécommunication de la société. Il fait une jolie culbute financière lorsque Reuters est racheté par Thompson.

A Singapour, il est approché par Silverlake,  les investisseurs de Skype qui ont racheté Skype à eBay. En 2010, il s’installe donc à Londres et crée l’Enterprise Business Unit de Skype, c’est-à-dire le secteur communication d’entreprise de skype qu’il dirige encore et dont le chiffre d’affaire croit très rapidement. Son rôle est de développer la pénétration de Skype dans les entreprises et de le monétiser. Il met en place une nouvelle stratégie qui déplace toute l’équipe de développement à Palo Alto (ils étaient répartis en Suède et en Europe de l’Est) et il crée Skype Connect qui permet de connecter Skype à des PBX d’entreprise…et bien d’autres choses. Pour plus d’informations sur la stratégie et les évolutions prévues de Skype , voir le prospectus S1 auprès de la SEC.

Microsoft vient de racheter skype pour 8 milliards de dollars, mais le deal n’est pas encore confirmé et il faut attendre que la CEE l’approuve. Chez Skype, c’est donc « business as usual ». Ce que Microsoft veut faire avec l’équipe n’a pas encore été véritablement discuté, il est donc trop tôt pour avoir une idée plus précise. Microsoft a vraiment voulu acheter Skype, ça ne s’est pas fait par hasard ou pour d’autres raisons. Microsoft a compris qu’il était important d’investir sur la communication en temps réel come étant le système nerveux de communication de toute sa plateforme. Ca n’est pas seulement une acquisition de surface, mais un changement complet de paradigme sur les communications en temps réel dans le « future computing ».  Un jour Oracle devra faire ça. Tous ceux qui sont dans l’applicatif n’auront pas le choix.

David Gurlé caresse aussi l’idée de monter une entreprise. Ses reflexions sont orientées sur le rôle des managers dans l’entreprise et les outils dont ils pourraient s’adjoindre pour travailler mieux et être de meilleurs managers. Un MBA ne donne pas les moyens de développer les qualités managériales des gens, on leur apprend a faire des tableurs, à aligner des chiffres, à réfléchir à des stratégies,  mais il pense qu’il y a des opportunités pour que chaque manager ait accès à des  ressources auxquelles seuls les élites (les top managers) ont accès.. Comment trouver et s’adjoindre ces outils de l’excellence… ? Il n’y a en effet pas de contrôle de qualité des manager et ils n’ont pas vraiment les moyens de s’améliorer.

David Gurlé répond enfin à plusieurs questions de l’audience. Skype va mettre en place un système de vidéo conférence de type Webex grâce à un deal avec Citrix (Go to Meeting) pour développer un OEM qui sera intégré dans skype. Skype sera-t-il SIP? Skype est déjà compatible avec SIP par l’intermédiaire de Skype Connect mais le protocole de Skype ne sera pas converti en natif SIP. Il restera propriétaire, mais ouvert. Le Web Conferencing était la principale caractéristique manquante, c’est ce qui est en cours de préparation.

La sécurité sur skype ?  Skype n’est pas un service de télécom au sens classique tu terme et gardera cette position pour le moment. Le protocole de Skype n’est pas décryptable…il ne l’a pas été jusqu’à présent. On ne police pas skype, il y a une politique de liberté d’utilisation et elle continuera.

Les évolutions de Skype ? Lorsqu’on consomme de la communication, on se met dans un certain contexte qui s’établi en fonction des données consommées et échangées. Mais aujourd’hui, l’outil ne fait rien pour connaitre ce contexte qui a une importance capitale sur l’information que les utilisateurs veulent faire passer.  Ce contexte donne plus de valeur à la communication réalisée entre deux ou plusieurs individus. Les évolutions de Skype vont  vers l’intégration du contexte au points d’entrée des données parce que l’échange d’information sera plus riche. On intégrera les outils de communication dans les outils auteurs (authoring tools).  Il s’agit en quelques sortes de mettre en place de la « rich comunication ». Le contexte peut aussi être  dynamique, et les ordinateurs disposent des éléments qui permettent de savoir comment ce contexte évolue. Un ordinateur peut travailler en background et améliorer sa connaissance de l’évolution du contexte pour faire du  matching et rechercher des informations  pertinentes liées à  la communication entre 2 ou plusieurs personnes. Il est donc possible d’enrichir le contexte. Ca sera la prochaine révolution.

La valorisation de skype lors de l’acquisition par Microsoft dénote les revenus potentiels qui n’ont pas encore été réalisés. La pub sur Skype est arrivée seulement cette année au mois de mars… Skype est dans le club très fermé des 100..100.. 100 du Web. L’ADN de GE est son management c’est ce qui en fait la valeur. Ebay n’a pas su trouver son ADN lui permettant d’utiliser Skype. Enfin, l’ouverture de Skype a été un sujet de négociation intense au cours du rachat par Microsoft. Steve Ballmer ne devrait pas casser l’aspect ouvert de Skype, il l’a dit. Les raisons qui l’empêchent de changer est que le monde des communications est hybride, il n’y a pas de système unique… c’est pas possible.

Merci à Aline Dinoia pour la vidéo.

Enhanced by Zemanta


6 juin 2011

France Télécom semble beaucoup envier la situation de ses confrères opérateurs américains qui leur permet d’augmenter leurs tarifs comme ils veulent sans grand contrôle de la part de la FCC. Stéphane Richard, PDG de Orange France-Télécom a désormais ses entrées au Wall Steet Journal et il en profite largement pour exprimer et faire passer un certain nombre de messages qui entrent dans une vaste campagne de sensibilisation destinée à faire admettre au grand public la version « opérateurs » de la Neutralité du Net, élément clé de la nouvelle stratégie de l’opérateur historique. A la fin du mois de mai, la veille de son intervention au e-G8, Stéphane Richard accordait une nouvelle interview au Wall Street Journal (Allthingsdigital) publié par Dow Jones and Co lui-même détenu par News Corp dont le propriétaire est Rupert Murdock, lui aussi invité par Nicolas Sarkozy au e-G8,. Dans cette rubrique du Wall Street Journal, dédiée aux technologies numériques, il y parle un peu plus librement et donne un certains nombre de précisions techniques sur cette guerre de position qui oppose les vieux opérateurs de télécommunication (FT, AT&T, Verizon, Comcast, Deutsche Telekom, Vivendi, Vodaphone, etc… ) aux nouvelles sociétés du numériques (Facebook, Apple, Google, Amazon, Skype, Groupon, Linkedin, etc…) qui proposent leurs nouvelles infrastructures de services  au dessus (over the top) de la tuyauterie des réseaux fixes et mobiles.

Contrôler l’utilisateur et avoir la main sur son portefeuille

Dans un premier temps, l’auteur de l’interview fait remarquer que le réseaux de France Télécom est celui qui « supporte » le plus d’iPhone dans le monde, après celui d’AT&T. Dans les coulisses de France Télécom, il est reconnu que les responsables  groupe n’aiment pas l’iPhone, même si il apporte beaucoup de chiffre d’affaire, d’une part parce qu’il augmente de façon significative le trafic sur le réseau, d’autre part parce que France Télécom doit payer des redevances à Apple, enfin et surtout parce qu’Apple dispose d’un lien très fort avec ses utilisateurs et d’un fort pouvoir de contrôle par le biais des applications et du contenu téléchargé sur l’Appstore et iTunes. « Chacun devrait les remercier d’avoir mis un tel produit sur notre marché » rappelle pourtant Stéphane Richard, mais très ouvertement à l’intérieur de France Télécom, on joue Android contre l’iPhone parce que Android est un système plus ouvert qui permet à l’opérateur d’avoir entièrement la main sur l’utilisateur et, plus important encore, sur son portefeuille. Stéphane Richard ajoute : “Pour moi, le risque théorique est, plus que tout autre chose, que Google puisse utiliser les releases d’Android comme une arme dans leurs relations avec les fabricants de terminaux (smartphones) et indirectement contre les telcos. Cependant, ils n’ont pas réellement essayé de le faire. »

La neutralité du Net est un moyen d’y parvenir

Stéphane Richard aborde ensuite candidement  la neutralité du Net et précise: “ Tout le monde parle de la neutralité du Net, mais la neutralité du net n’est pas seulement un problème de gestion de tuyaux… Elle s’étend aussi à la gestion des boutiques d’applications… Si vous avez des gens comme Apple qui gèrent leurs boutiques d’applications et disent: celle-ci-est OK mais je ne veux pas voir cette application dans ma boutique, alors il y a un problème… » En effet, examinons comment les opérateurs ont pendant longtemps empêché la mise en œuvre de l’application de Skype sur les téléphones mobiles… en empêchant cette application de fonctionner sur leurs réseaux. La démarché est la même qui est reprochée par Stéphane Richard, avec des moyens différents et la dépendance à l’opérateur est alors plus profonde, particulièrement dans un marché comme celui des Etats Unis où les 2 opérateurs télécom  se partagent le marché dans un oligopole exemplaire avec un unique opérateur de câble (Comcast) et un régulateur impuissant. Les services innovants ne viennent en effet pas des opérateurs.

Faire payer la consommation des données

L’article rappelle ensuite plusieurs positions de Stéphane Richard exprimée à la fin de 2010 sur le sujet. «  Les opérateurs de services noient les réseaux sans aucune incitation, dit-il, il est nécessaire de mettre en place un système de paiement par les opérateurs de services en fonction de leur utilisation » Plus loin il ajoute… « Nous allons progressivement nous écarter de l’approche illimitée qui a été la marque de fabrique de notre industrie vers quelques choses de plus sophistiqué ». En d’autres termes, les opérateurs vont encore plus souvent se prendre les pieds dans le tapis avec des activités marketing encore plus sophistiquées et encore plus coûteuses pour mieux contrôler et augmenter la facture de l’utilisateur final.   En 2010,  Giuseppe de Martino, Directeur juridique de Dailymotion précisait : « Actuellement, environ 40% de nos dépenses sont déjà de toute façon dans le réseau- serveurs, peering, notre propre réseau de livraison de contenu et d’autres ressources.. Si les opérateurs téléphoniques veulent que nous partagions leurs dépenses, peut-être on devrait alors parler de partager leur revenus d’abonnement aussi… ». Dailymotion partage maintenant les revenus de France Télécom, tout simplement parce qu’il a été racheté par France Télécom en début de cette année…

Négociations avec Apple, Appstore et carte SIM

Revenant sur les relations avec Apple, Stéphane Richard précise que des négociations ont eu lieu sur différents points. . « Nous avons pu arriver à des solutions avec les gens d’Apple, mais si ils sont un peu durs… On est capable de trouver des solutions, nous ne sommes pas en guerre, mais c’est vrai que ça peut être dur.  Bien sûr, nous préférerions voir ces services enfouis dans le terminal comme nous le faisons avec Android (sur les terminaux Samsung ou HTC). Ca n’est pas possible avec Apple. Nous devons continuer d’apporter ces applications à nos clients à travers l’appstore, sachant clairement que nous avons accès à l’appstore. »  Et il menace…« En cas de problème, nous irons devant la justice…si par exemple Apple dit, je ne veux pas de cette application… » Apple a aussi travaillé depuis plusieurs années à réduire la taille des cartes SIM pour réduire encore la taille de l’ iPhones. Il aurait aussi envisagés un iPhone sans carte SIM, au sein d’un programme appelé e-SIM project ou encore une carte SIM modifiée qui lui permettrait de s’insérer facilement entre l’opérateur et l’abonné.  Stéphane Richard indique : «  Nous leur avons tous dit que c’était une mauvaise idée (de supprimer la carte SIM) parce que c’est une pièce cruciale de la sécurité et du processus d’authentification. » A noter que certains opérateurs américains comme Verizon ne l’utilisent pas et ne connaissent pas plus de problèmes de sécurités que d’autres…). Il poursuit : «  cela serait très difficile pour les opérateurs téléphonique de gérer leurs relations clients…Je pense qu’ils ont compris ce point. Nous avons eu un échange et un dialogue très constructifs avec eux. Nous allons travailler avec eux pour standardiser un nouveau format de carte SIM qui prenne en compte nos besoins de sécurité et d’authentification qui soit aussi compatible avec leurs souhaits en termes de taille. »  

Cri d’alarme au e-G8 : « Le réseau risque de s’écrouler »

Au cours de cette interview, il place une idée qu’il exposait le lendemain au cours de sa présentation au e-G8 en indiquant que le réseau pourrait s’écrouler à cause d’un trafic trop important. Il crie au loup… En effet, la stratégie des opérateurs en matière de capacité de réseau est très ouvertement de ne pas investir selon les besoins, mais en dessous, de façon à toujours maintenir une pression et une certaine rareté sur la bande passante, et ainsi en maintenir la valeur… « Nous sommes les gens qui tiennent les tuyaux » rappelle-t-il. Il voit un problème « parce que les gens qui créent le trafic ne sont pas réellement incités à gérer le trafic proprement et globalement » comprenez : le gérer de la manière dont le voient les opérateurs qui considèrent les tuyaux, et les fréquences comme leur propriété personnelle.  Cette vision passe encore aux Etats Unis, mais elle passe de plus en plus difficilement en Europe ou encore dans les pays en voie de développement pour qui le décollage dépend de ces infrastructures et rend l’utilisateur entièrment captif de celui qui détient l’infrastructure et impose des péages un peu partout.

Stratégie de restriction de la bande passante

Cette stratégie de restriction de la bande passante est donc aussi un bon moyen de faire pression sur les gouvernements qui cherchent à le réguler et de presser l’utilisateur pour maintenir l’ARPU, tout en criant à qui veut bien l’entendre que la concurrence est odieusement avantagée par des positions monopolistiques, savamment protégées à l’étranger.  Or le coût de la bande passante ne cesse en effet de baisser dans un mécanisme à peu près identique à celui de la loi de Moore dans les PC. Il est reconnu que le coût des réseaux de fibre optiques sont pour plus de 70% dans le génie civil (les tranchées qu’il faut creuser pour y mettre la fibre) et que le prix des matériels baisse alors que la capacité de bande passante d’une fibre continue d’augmenter de façon vertigineuse (32 terabits/seconde pour une seule fibre).  Mais plutôt que de répercuter cette baisse de coût à l’utilisateur comme l’a fait Intel pendant des années avec le coût des processeurs dans des PC toujours plus puissants et moins chers (à noter que les investissements de Intel en outils de productions et en R&D sont énormes…), les opérateurs préfèrent faire plus de marge pour payer leurs dettes, des dépenses somptuaires dans les contenus et imaginer de nouvelles stratégies marketing inutiles pour verrouiller leurs abonnés. La position monopolistique des opérateurs  se fait sur le dos de l’utilisateur alors que les positions monopolistiques d’un Microsoft ou d’un Intel avec le PC, d’un Facebook ou d’un Google profitent particulièrement à l’utilisateur final puisqu’elles lui apportent des services nouveaux et des possibilités nouvelles à des coûts nuls ou fortement décroissants.

La question qu’il aurait fallu poser au e-G8

Stéphane Richard conclue son interview au Wall Street Journal en disant, sans mentionner directement la bande des 4 (Google, Facebook, Apple et Amazon).  « Il y a un déséquilibre dans le système général, ce qui de notre point de vue est un problème majeur… Il est totalement impossible d’absorber une telle explosion du trafic sans premièrement, clairement investir massivement dans le spectre et les équipements et deuxièmement sans introduire de nouvelles approches de fixation des prix. »  Maurice Levy, le PDG de Publicis a « oublié » de poser la question à Mark Zuckerberg ou à Eric Schmidt de savoir ce qu’ils pensaient du cri d’alarme de Stéphane Richard. En effet, alors que les 4 (et d’autres encore) sont en train de créer de véritables infrastructures de services qui utilisent des tuyaux qui « appartiennent » aux opérateurs, ne sont-ils ils pas inquiets d’entendre Stéphane Richard dire que ces tuyaux risquent d’exploser parce qu’il n’investi pas suffisamment pour garder le contrôle des utilisateurs? A quelle stratégie de backup ont-ils pensé pour se passer des opérateurs le jour où cela arrivera? Il est certain qu’ils y reflechissent…

Enhanced by Zemanta

Smart Grid : le Projet Linky d’ERDF

24 avril 2011

Dernier volet de ce compte rendu de la conférence Asprom qui s’est tenue au début du mois d’avril, le Projet Linky est présenté ici par Jean-Marie BERNARD, directeur technique Linky chez ERDF. Il resitue le contexte juridique et réglementaire au niveau européen puis au niveau Français pour indiquer les grandes étapes de l’expérimentation/évaluation Linky en cours et les développements futurs. L’objectif est donc d’attendre 95% du parc équipé de Linky d’ici 2018.

Le régulateur a indiqué le cahier des charges fonctionnel du compteur Linky au cours de deux communications en 2007 après une concertation qui a été faite en 2007 Une deuxième concertation avec les acteurs a au lieu à la fin 2009. Les enjeux sont l’ouverture des marchés, la qualité des services, la performance du distributeur (réduire le nombre de déplacements qui s’élève à environ 7 millions pas ans). Il y aura donc une nouvelle infrastructure de communication pour gérer de nouvelles informations qui viennent des compteurs, etc…

Qu’est-ce qu’est Linky ?

C’est un compteur et un système. C’est en fait une extrapolation du compteur bleu électronique auquel on ajouté un moyen de communication basé sur du CPL, il dispose d’une horloge et comporte un logiciel évolué qui gère 2 grilles tarifaires : l’une pour la facturation de l’énergie et l’autre pour son transport et sa distribution. Il y a la possibilité de gérer de la pointe mobile et des courbes de charge. Enfin, il est doté d’un interrupteur qui vérifiera la puissance contractuelle. Les données entre le compteur et le reste du monde par la communication CPL sont chiffrées. L’architecture est à 3 niveaux, ce qui est important pour les problématiques de déploiement.

CPL versus radio

Le courant porteur en ligne (CPL) a été choisi en s’appuyant, entre autres, sur des expériences effectuées en Californie où il y a en moyenne 7 compteurs par transformateur. En France on est à 50 compteurs par concentrateur (poste de transformation) voir 75 ou 100. Le CPL est donc plus intéressant financièrement lorsqu’il y a une grande concentration. Mais il élude largement la question des avantages respectifs des technologies radio face à la technologie CPL, il semble que les aspects financiers aient été prédominants dans ce choix alors même que CPL est encore assez mal connu sur des courants de moyenne tension et sur des réseaux assez hétérogènes de qualité varié, ce qui est le cas du réseau d’ERDF.

Il précise donc que l’utilisation du CPL à haute dose sur des réseaux de distribution moyenne fréquence est loin d’être courant. Le choix fait a donc été de rester calé sur la topologie du réseau électrique et de ne pas construire un réseau parallèle, même si chaque compteur peut légalement recevoir un dispositif radio (pour le GPRS, le WiFi ou le Zigbee). La technologie CPL permet cependant de limiter les pertes dites « techniques » sur le réseau en optimisant l’équilibrage des phases.

35 millions de compteurs à déployer en 5 ans

Fonctionnant dans la pure lignée directe d’une démarche « top down » à la française, ERDF a néamoins imposé un certain niveau d’interopérabilité parmi les 3 constructeurs de compteurs et les constructeurs de concentrateurs retenus, « véritable innovation dans le domaine du comptage électrique »… précise Jean Marie Bernard… L’innovation vient donc des hautes sphères d’ingénieurs bureaucrates qui la modélisent avec délectation…  « Mais le vrai challenge restant est de déployer 35 millions de compteurs en 5 ans…et 500000 concentrateurs…. Tous étant équipés de capteurs et d’actionneurs qui permettent éventuellement d’agir automatiquement en cas de panne sur le réseau..  »  Le smart grid se développera donc à partir d’une mise à jour de l’infrastructure en place.

Retours d’expériences..  on reste sur sa faim

« On commence a avoir des retours d’expérience » précise Jean-Marie Bernard. « L’expérimentation a porté sur 300000 compteurs en grande partie pour tester les processus de déploiement et de pause, c’est une expérience sur les équilibres économiques plus que sur les détails techniques. On peut maitriser la technique avec le déploiement de quelques milliers de compteurs seulement »…. Le seul problème est qu’ERDF ne parle d’aucune des équations économiques en présence, ni les différents choix possibles qui s’offraient, ni de la manière dont ont été effectués les choix… !

Jean Marie Bernard se limite à partager quelques constatations ponctuelles :  « On a posé 100% des concentrateurs et 85% des compteurs sont posés poursuit-il (problématique des portes fermées). Ca se passe plutôt bien, les temps de pose que nous avions estimés sont respectés. L’expérimentation confirme donc les hypothèses de ce point de vue. Actuellement 150000 index sont remontés tous les jours, car on stresse le système, ce chiffre croit tous les jours.  9 compteurs sur 10 communiquent mais il y a encore des bugs. Ca se corrige progressivement. Dans le CPL, le signal émis n’est pas très fort, il faut répéter le signal (mais parfois il y a des blancs ou des lignes trop longues sans répéteur et ça coince…) 107000 compteurs sont aujourd’hui ouvert à la chaine complète pour l’automatisation, comprenant la  facturation.  Pour l’industrie, 50% du cout du projet est le coût de pose des compteurs.»

Des questions sur l’accès aux informations, par les particuliers et des tiers de service

Quelle est maintenant la suite, sachant que selon ERDF, l’expérimentation arrive à son terme. « L’elément suivant est la décision des pouvoirs publics sur les suites à donner explique Jean Marie Bernard. La phase suivante est donc d’atteindre 95% du parc déployé en 2018, conformément à la directive européenne. » Parmi les questions posées à l’issue de sa présentation, la principale est celle de l’accès à l’information… « Les informations issues du compteur appartiennent aux clients, indique Olivier Hersent en réponse à une question, et les fournisseurs, selon les règles du marché, doivent restituer d’une certaine manière l’information aux tièrces parties… » Beaucoup de discussions ont lieu sur ce sujet chaud qui devrait être définie par la CRE, car de la manière dont ERDF redonnera les informations qu’il a collectées dépendent un certains nombres de services innovant basés sur les données de consommation électrique.. L’arrivé d’Internet dans le monde de l’énérgie est une opportunité pour développer un nouveau secteur industriel, dont Olivier Hersent de Actility est un des premiers représentants en France.

Pour voir la présentation de jean Marie Bernard

Enhanced by Zemanta

Bye Bye la Neutralité du Net…? Pas si sûr… !

20 avril 2011

Neelie  Kroes, Commissaire Européen chargée de l’Economie Numérique indiquait hier qu’il n’y aurait pas de loi sur la Neutralité du Net…Elle précisait cependant, dans cette brève vidéo que les opérateurs ne seraient pas exempts d’obligations dont celle d’indiquer précisément à leurs abonnés la bande passante réelle dont ils peuvent disposer. Même si la Commissaire Européenne n’aime pas l’idée que les opérateurs puissent contrôler et/ou bloquer la bande passante de leurs abonnés, elle indique que les opérateurs seront contraints de l’indiquer.

Elle précise: “dans les prochains mois, en étroite coopération avec les autorités de régulation de chacun des pays, je vais regarder de très prêt le respect des nouvelles règles européennes pour être certaine qu’ils assurent un Internet ouvert. A la fin de 2011, je publierai les résultats, y compris toute tentative de bloquer ou de ralentir certains types de trafic. Si je ne suis pas satisfaite, je n’hésiterai pas à prendre des mesures plus coercitives, qui pourront prendre la forme de guide ou même des mesures législatives générales pour atteindre la concurrence et le choix que les utilisateurs méritent. Si cela se montre insuffisant, je suis prête à empêcher le blocage de services ou d’applications légales. »

La loi diffère de la régulation…

Voila une belle déclaration d’intention, une de plus pourrait-on dire lorsqu’on connait un peu les méandres bureaucratiques de la Commission Européenne. Mais Neelie Kroes, avant de s’occuper de l’économie numérique, a déjà acquis l’image d’une femme intraitable lorsqu’elle avait en charge le respects de la concurrence au niveau européen. D’autre part, elle dispose de plusieurs moyens pour faire respecter ces directives, autres que la loi.

En effet, la loi, on l’a vu avec le Paquet Télécom, est hautement interprétable, et surtout aussi lorsqu’elle s’adresse à des sujets aussi techniques et innovants que les télécommunications.  Elle indique un esprit (souvent interprété selon les intérêts de chacun) qui dans beaucoup de cas doit être repris légalement au niveau de chaque pays, avec des variations et des dérives dont on a pu constater l’effet lors des lois Hadopi, Lopsi et autres… La mise en application du Paquet Télécom est encore en cours dans la plupart des pays européens, dont la France…

La Neutralité du Net ne sera pas un droit… mais…

L’esquive de Neelie Kroes, en ne souhaitant pas légiférer sur la Neutralité du Net, risque de faire bondir un certain nombre de gens qui souhaitent que la Neutralité du Net soit gravée dans le marbre. Non seulement cela risque d’entrainer un long et difficile débat parlementaire, probablement assez stérile, et une fois loi, toutes les dérives sont permises. Les opérateurs sont tous prêts à utiliser la technologie et leur imagination pour d’une part la contester (ils ont les moyens et l’habitude de faire des procès) et ensuite la contourner en toute innocence et bonne foi bien sûr.

Nouvelles règles à partir du 25 mai…

Le communiqué de presse de la commission précise : « Il n’y a pas de définition instituée de “la neutralité du Net” mais il y aura un certain nombre de contraintes légales sous la loi Européenne. A partir du  25 Mai 2011  les Autorités de régulation des Etats membres (l’ARCEP en France) devront assurer la faculté pour les utilisateurs Internet ‘d’accéder et de distribuer l’information ou de faire fonctionner les applications ou les services de leur choix. (Article 8(§4)g du Paquet Télécom 2002/21/EC, amendé par Directive 2009/140/EC) ». D’autres règlementations relevant directement de la neutralité du Net entreront en vigueur le 25 mai ce sont notamment la transparence (concernant toute limitation d’accès à des services, applications ou limitation de la bande passante), la qualité de service (le régulateur peut fixer un minimum de qualité de service), ou la possibilité de changer librement d’opérateur. (dans la journée).

Les régulateurs prennent du poids

Neelie Kroes précise qu’elle dispose d’un moyen assez efficace pour contrôle la mise en œuvre de l’esprit de la régulation à travers le BEREC, c’est-à-dire le groupe Européen des régulateurs, qui depuis le dernier Paquet Télécom, dispose d’un vrai statut auprès de la commission.  Grâce à sa capacité d’investigation dans chaque pays, le Berec sait assez précisément ce qui se passe. Il connait et analyse les pratiques sur chaque marché, mais il ne dispose pas d’un droit de saisine. Le droit de saisine reste dans les mains des régulateurs de chaque pays. Le fait que Neelie Kroes indique qu’elle s’appuiera sur les analyses du Berec effectuées dans chaque pays donne à ce dernier un quasi droit de saisine.

Des dérives locales clairement constatées

Le BEREC a montré, au cours de la préparation du Rapport Européen sur la neutralité du Net publié hier,  qu’il existe certaines dérives locales sur les limitations de débit pour le trafic pair à pair ou le streaming vidéo en France, en Grèce, en Hongrie, en Lituanie, en Pologne et en Angleterre.  En Autriche, Allemagne, Italie, Hollande, Portugal et Roumanie, certains opérateurs bloquent ou font payer plus cher la voix sur IP sur les téléphones mobiles. Cela signifie que ces pratiques devraient se terminer d’ici la fin de l’année puisque les autorités de régulation doivent veiller à ce qu’elles ne se produisent plus. Maintenant, il appartient aux Autorités de régulation de prendre en compte ces pratiques, de les mentionner et de faire appliquer les règles dans l’esprit indiqué par la Commissaire…. !!

Il est clair que les opérateurs sont rompus au marketing et qu’ils possèdent d’importants moyens de pression, de lobbiyng, ajoutés à des techniques de communications éprouvées qui leur permettent de contourner les lois qu’ils enfreignent en toute connaissance de cause. L’application de la Neutralité du Net résidera donc dans la manière dont elle est interprétée par les régulateurs et la manière dont ils envisagent de l’appliquer. L’ARCEP en France doit faire un colloque à ce sujet le 14  4 mai prochain… à suivre de prêt donc..

Revoir aussi ce que disait Gabrielle Gauthey sur le sujet lors de la conférence MWC de Barcelone

Quand la Silicon Valley sort de la crise, l’Europe traine encore la patte

19 avril 2011

A Paris depuis quelques mois, je garde un œil sur la Silicon Valley, dans la presse locale et à travers des discussions régulières avec des « amis locaux » et des partenaires. « Comment va la Silicon Valley ? » est une question que l’on me pose assez souvent… avec une lueur d’espoir sachant que quand la Silicon Valley va… la technologie va… !  Difficile cependant de répondre avec précision…

Pourtant certains indices d’un redémarrage semblent apparaitre depuis le printemps, mais rien ne vaut une visite sur place… Il me faudra attendre encore un peu pour constater de visu. Je suis donc allé dans la presse locale, le Merc et quelques autres, pour m’imbiber de l’état d’esprit du moment.

Le capital risque ne sera plus ce qu’il était

Adeo Ressi, CEO du Founder Institute et créateur du site The est catégorique, «  le capital risque, disons plutôt l’investissement dans les sociétés de technologie,  sortira complètement transfiguré de la crise ». En effet, beaucoup de fonds existants avant la crise n’ont pas pu lever de nouveaux fonds et l’ensemble de la profession a été littéralement écrémée. En 2008, Sequoia Capital sortait une présentation fameuse appelée « RIP Good Times », « Les belles années sont mortes » préfigurant le Tsunami qui allait s’abattre sur la profession et  les start’up.

Selon la National Venture Capital Association, le nombre de VC est passé de 1000 en 2007 à 400 à la fin 2010.  Non seulement, le ralentissement économique a freiné, voir arrêté un grand nombre de start’up, mais les sorties de sociétés financées par des VC se sont faites très rares sur un marché boursier dépressif, 18 sociétés en 2 ans contre presque 200 au début des années 2000.

Des nouveaux chemins pour investir dans les start’up.

En 2010, le nombre d’IPO a commencé à grimper mais reste encore faible à moins de 50 par an. Avec les probables entrée en bourse de Linked’in, Twitter etc…, et le marché secondaire permettant à Facebook ou à Zinga de lever de l’argent sans entrer en bourse, le marché de l’investissement semble conduire les start’up dans de nouvelles directions. Est-aussi apparue une nouvelle catégorie d’investisseurs appelés « super angels », des entrepreneurs comme Peter Thiel de Pay Pal, Dave McClure, Jeff Clavier,  Ron Conway , Mike Maples qui investissent eux-mêmes leur argent pour des montants assez bas dans des start’up qu’ils suivent activement et qui revendent leurs parts sur le marché secondaire à des fonds établis ou des VC lorsque la société décolle, en attendant une éventuelle entrée en bourse. La Silicon Valley bruisse déjà, semble-t-il, de ces nouvelles start’up qui vont une nouvelle fois révolutionner Internet. Les investisseurs, même si ce ne sont plus tout à fait les mêmes, sont là.

Plus long à réagir en Europe

Et l’Europe là dedans.. ? Une récente interview dans Business Insider de Jean David Chamborédon, responsable du fonds Français ISAI mis en place par Pierre Kosciusko Morizet donne le ton. « Comme je l’ai dit, je pense que les perspectives sur le long terme sont bonnes, mais elles sont mauvaises sur le court terme. Les investissements des VC en 2010 ont été élevés, mais la raison est que beaucoup d’entre eux ont levé des fonds en 2006-2007 et ne sont plus à même d’investir en 2010-2011, et parce qu’ils n’ont pas investi en 2009 à cause de la récession, ils ont tiré leurs dernières cartouches en 2010… Mais déjà 2011 s’annonce mal au premier trimestre et 2012 va être brutal » Donc, les start’up Européennes qui commencent à décoller mais ont encore besoin d’investissements pour aller plus loin ont du souci à se faire. Pas très bon pour la reprise…

Enhanced by Zemanta

France Télécom et Deutsche Telekom créent une Joint Venture…

18 avril 2011

Je rebondi sur l’article du blog de Jean Pierre Jambes à propos de la mutualisation des ressources en matière d’infrastructures. Cet article parait juste au moment de l’annonce de la mise en commun d’un certain nombre de ressources par France Télécom et Deutsche Telecom dans une Joint Venture dont l’objectif est de regrouper leurs achats et exercer des synergies autour de leurs achats de matériel de réseaux, d’équipements pour les utilisateurs (les terminaux) et de plateformes de services…

Une joint Venture pour réduire les coûts d’achat de matériels

La démarche de FT et DT apparait excellente sur le papier. Les deux compagnies mettent en commun leurs forces d’achat sachant que les matériels de réseaux, les plateformes de services qui opèrent dans les infrastructures sont en général les mêmes dans un secteur assez fortement standardisé. Côté utilisateurs, les terminaux mobiles qu’ils achètent sont aussi souvent les mêmes, avant d’être localisés en fonction des goûts et des besoins des utilisateurs de chaque marché…

Pour les 35 marchés sur lesquels opèrent les 2 opérateurs, FT et DT estiment que 13 milliards de dollars d’équipements et de terminaux peuvent être achetés conjointement. La mise en place de cette « centrale d’achat » aurait pour effet au terme des trois années de mise en place de la structure de générer 1.3 milliards d’économies par an… soit 10% du montant des achats effectués. A noter que France Télécom bénéficiera plus de cette joint Venture puisque sa part d’économies réalisées serait de 900 millions d’Euros par an contre 400 millions par an pour Deutsche Telekom.

Des zones d’ombre

La conférence de presse n’apportait guère de détails sur les intentions précises des deux opérateurs, autres que de mettre en place un front commun plus puissant devant les équipementiers. A remarquer que les équipementiers occidentaux sont déjà en état de forte déconfiture devant la montée des équipementiers chinois qui non seulement cassent les prix mais fournissent avec eux les financements des produits qu’ils vendent. Sur le plan des terminaux, cette Joint Venture marque une étape de plus dans la volonté des opérateurs de continuer d’imposer leur volonté aux fabricants de terminaux. Apple n’a qu’à bien se tenir…

« Nous présentons maintenant une organisation des achats de classe internationale indiquait Olaf Swantee, Directeur des Opérations en Europe et du Sourcing à France Télécom,  nous pouvons mutualiser de façon très effective, et même faire plus… » C’est bien là que les questions se posent car tout le monde sait que la technique a une odeur et qu’elle n’est pas neutre sur les politiques marketing qui en découlent (ou qui conduisent aux choix technologiques).  Plus loin, il indique «  la mutualisation des standards est inclue dans cet accord, c’est une de ses tâche de faire avancer les standards de l’industrie… »  mais quels standards ?

La technologie n’est pas neutre…

Rappelez vous la bagarre du GPON vs P2P en France dont l’un des objectifs était en premier lieu de gêner un concurrent (Free) qui avait choisi l’autre technologie, mais aussi de pousser une technologie maitrisée et contrôlée par les opérateurs face à une technologie maitrisé par les équipementiers de réseaux en entreprises.  Le choix et la mise en œuvre d’un standard sur une infrastructure sont extrêmement discriminants pour ceux qui ne maitrisent pas l’infrastructure, surtout au fur et à mesure qu’on monte dans des standards qui concernent plus directement l’utilisateur.

« Les fournisseurs auront directement accès à un plus vaste marché indiquent les responsables de la JV »  mais ils poursuivent « nous seront capable de construire des technologies plus productives et plus pointues pour apporter de l’innovation sur les marchés »  Jusqu’à présent, l’innovation a été apporté par Google, Skype, Apple, mais pas par les opérateurs… L’innovation selon les opérateurs n’a pas vraiment époustouflée les utilisateurs jusqu’à aujourd’hui parce qu’elle consiste en grande partie à verrouiller le client dans des contrats à long terme à des prix exorbitants… L’un d’entre eux mentionnait que la Joint Venture aurait pour but d’essayer de limiter la fragmentation dans les terminaux… ! Comptent-ils s’orienter vers un seul fournisseur comme Apple par exemple pour faire baisser le prix des terminaux iPhone qui ont apporté plus d’innovation en 3 ans que tous les autres pendant les 15 dernières années ?

 Peut-on faire confiance aux deux opérateurs historiques ?

Pour le reste, les deux opérateurs ne répondent pas sur leurs intentions précises de mise en commun… Ils admettent cependant qu’ils devront passer devant les autorités de la concurrence de plusieurs pays dont l’Allemagne (mais pas la France ou Deutsche Telekom n’opère pas), la Pologne, la Roumanie, l’Autriche et la Slovaquie… « Nous devons créer une organisation (la Joint Venture qui aujourd’hui n’a pas de nom) que les gens comprennent indiquait  Edward R. Kozel, Directeur Technologie et Innovation au sein de Deutsche Telekom, avant d’essayer d’aller plus loin, nous ne voulons pas être trop complexe…

Nous ne mettrons pas en commun d’actifs immatériels comme les fréquences, dit-il ensuite, on ne reste que sur du matériel physique…  » Il indiquait que cette Joint Venture est la suite logique de l’accord passé en février dernier. La Joint Venture, qui sera mise en place au 4ème trimestre, regroupera environ 200 personnes et aura une présence physique à Paris et une présence physique à Bonn. Elle sera sous la responsabilité d’un CEO /CTO, de 7 directeurs qui en dépendront et d’un board composé de 2 membres de France Télécom et de 2 membres de Deutsche Telekom.