Archive for the ‘Régulation’ category

GOOGLE RALE CONTRE LA DECISION DE REGULER LES VOITURES SANS CHAUFFEURS

19 décembre 2015

Goggle self driving car

La Californie met en place une régulation pour contrôler et sécuriser l’utilisation des véhicules sans chauffeur. L’initiative s’étendra aux autres Etats.

Le DMV (Department of Motor Vehicules) de Californie est l’autorité qui règne sur le code de la route, les permis de conduire et immatricule tous les véhicules dans l’Etat de Californie. La semaine dernière, conformément a un amendement passé par le Sénat Américain en 2012, il vient d’émettre une  nouvelle série de régulations concernant les modes d’utilisation et de circulation des véhicules sans chauffeurs, les fameux self-driving cars dont Google a été le précurseur, avec l’assentiment bienveillant de Jerry Brown, le Gouverneur de Californie. Comme prévu, une série de réactions positives, accompagnée d’une série de réactions négatives à cette décision a immédiatement traversé la presse et les blogs locaux, chacun y allant de son petit argument personnel. La réaction la plus remarquée fut celle de Google à travers un communiqué assez laconique «   We’re gravely disappointed that California is already writing a ceiling on the potential for fully self-driving cars to help all of us who live here…” qui cependant n’explique pas vraiment les raisons de la nocivité de cette régulation.

10 accidents documentés en un an

Dans son communiqué de presse, le DMV indique que cette régulation est destinée aux constructeurs et sociétés qui effectuent des tests de voitures autonomes en vrai grandeur, dans la circulation ouverte. En effet, lorsqu’on se promène aux alentours du quartier de Mayfield à Mountain View, là où se trouve Google X, il est fréquent de croiser l’un ou l’autre de ces véhicules de test, facilement reconnaissables par leurs antennes sur le toit et des capteurs accrochés un peu partout sur la voiture. Le Directeur du DMV, dans son communiqué, indique qu’au début du mois de décembre, plus de 10 sociétés dont Tesla, Google, Mercedes, Volkswagen, Delphi, Bosch, BMW, Nissan…. et non pas Apple) ont obtenu du DMV l’autorisation de faire circuler leurs véhicules sans chauffeur.  Dans ce même communiqué figure la liste des 10 accidents documentés qui ont impliqué des véhicules sans chauffeurs depuis le 14 octobre 2014, dont 9 concernent des véhicules appartenant  à Google…Google a cependant commencé de tester les véhicules autonomes dès 2009, il aurait réalisé plus de 2 millions de km et aurait été impliqué dans une vingtaine d’accidents au total. Il mentionne que la plupart des accidents sont dus à la distraction des autres conducteurs qui viennent heurter les véhicules sans chauffeur…  Il n’y aurait eu aucun blessé…

Quelques principes simples à respecter

Les quelques principes de cette régulation obligent la présence d’un conducteurs doté d’un permis de conduire dans le véhicule. Ce conducteur qui aura l’entière responsabilité du véhicule sera aussi responsable des manquements au code de la route et devra être en mesure de reprendre contrôle du véhicule en cas de difficulté ou d’incident.  Les constructeurs ou développeurs de ces véhicules doivent être accrédités auprès du DMV après avoir rempli un dossier complet. Ils doivent fournir des compte-rendus mensuels d’utilisation et des conditions de sécurité du véhicule et documenter et déclarer les accidents dans un délai de 10 jours. Ils n’ont pas le droit de vendre les véhicules développés au public, mais en revanche ils peuvent les louer.

De nombreuses consultations ouvertes

voiture devant GoogleXContrairement à certaines pratiques françaises du « dialogue social »  où des décisions sont prises par les autorités gouvernementales sans consultation directe et préalable de l’ensemble des intéressés, la décision du DMV a été prise à la suite de plusieurs séances de travail publiques dont 2 tenues en 2013, 3 en 2014 et une en janvier 2015. Toutes les minutes de ces travaux et les vidéos des présentations effectuées sont disponibles sur Internet.  Suite à cette régulation, deux autres séances de travail sont déjà annoncées le 28 janvier et le 2 février prochain, ces séances seront ouvertes au public.

Un jour peut-être en France…

« Le véritable challenge de ce type de régulation est de trouver un bon équilibre entre assurer la sécurité publique et faciliter l’innovation technologique » indique le directeur du programme  California Partners for Advanced Transportation Technology (PATH) de l’Université de Berkeley. « Le poids repose sur les développeurs qui doivent prouver que leur invention est suffisamment sure et ne vas pas remettre en cause la sécurité publique ». En France, le principe de précaution, soigneusement respecté, fait qu’on ne peut même pas penser voir un de ces véhicules dans nos rues. Il faudra attendre que ces véhicules soient testés ailleurs…par d’autres…

 

Publicités

AVICCA: Le très haut débit est-il en panne?

20 mars 2012

Le colloque bi-annuel de l’AVICCA qui s’est déroulé hier posait la question de la mise en œuvre du plan très haut débit en France et très clairement, son Président Yves Rome sonnait le signal d’alarme, une fois de plus. Cependant pratiquement au même moment à Bruxelles, Stéphane Richard, PDG de France Télécom et Neelie Kroes, Vice-Présidente de la Commission Européenne pour l’Agenda Numérique se congratulaient, le premier fier de ses 10 nouveaux engagements et la seconde sur son action pour une économie numérique européenne compétitive et durable.

Pas de 2 médiatique ?  Deux des 10 engagements de Stéphane Richard portent en effet sur le haut débit : le premier sur le déploiement du réseau 4G/LTE dans toutes les filiales européennes d’Orange d’ici 2015 et l’autre, vieux serpent de mer en France, est le déploiement du FTTH pour 15 millions de foyer et 80% de la population Française d’ici 2020…

 Les objectifs 2020 ne seront pas atteints

Très clairement, selon Yves Rome, on sait dès aujourd’hui qu’à la vitesse où le déploiement se réalise en France aujourd’hui, on sera loin d’atteindre le second objectif à l’échéance indiquée… Comme d’habitude, les opérateurs ne tiennent pas leurs promesses, où ils expriment leurs promesses de façon tellement peu mesurable qu’ils auront de toute façon raison à la fin… Il faut reconnaitre cependant que ce comportement n’est pas une prérogative uniquement spécifique à France Télécom, mais celui-ci est beaucoup plus visible du fait qu’il est l’opérateur historique en position dominante… France Télécom est ainsi considérée dans le milieu des collectivités locales comme étant celui qui a fortement ralenti, voire empêché, le développement rapide de la fibre en France. Le colloque de l’Avicca a été l’occasion pour de nombreuses collectivités de l’exprimer en expliquant leur action pour la mise en place de réseaux de fibre à destination des abonnés, réseaux de fibres qu’on appelle RIP (réseaux d’initiative publique), un sigle qui pourrait aujourd’hui être considéré comme une certaine forme d’humour noir.

La France numérique, 17ème en Europe, prend du retard dans le FTTH

Yves Rome, dans l’introduction qu’il faisait de cette journée, pose très clairement le problème des opérateurs qui font de grandes et jolies promesses et qui ne les tiennent pas, pour des raisons toutes aussi valables les unes que les autres, tant qu’il n’y a pas de sanction. Aujourd’hui, les opérateurs ont cessé de s’intéresser au FTTH fixe, au profit du mobile. Il ne manque pas de mentionner que la France, dans le concert  Européen des nations fibrées, est aujourd’hui classée en 17ème position pour le taux de pénétration de la fibre à l’abonné, entre la Turquie et la république Tchèque… !

Volonté et transparence sont en berne chez les opérateurs privés pour ce qui concerne le FTTH et leur sincérité est fortement mise en cause dans la mesure où ils refusent la mesure des objectifs et la sanction de ceux qui ne sont pas atteints. Se jouant des différents mécanismes incitatifs qui ont été mis en place, au niveau réglementaire et financier, les opérateurs, dans leur comportement, nient presque complètement les réseaux d’initiative publique et entrent même en concurrence avec eux, en cassant les prix ou en construisant leur propre réseau en doublon, là où l’argent public des contribuables a déjà été sollicité, ou encore en s’abstenant de s’impliquer, là où il serait souhaitable et pourtant rentable pour eux. Cette situation doit-elle changer ? Peut-elle changer ? Mais comment ?

Yves Rome, introduction du colloque de l’Avicca du 19 mars 2012

LE BATIMENT INTELLIGENT AU COIN DE LA RUE… NOUVELLES PROBLEMATIQUES

6 mars 2012

En moins d’une décennie, Internet et la téléphonie mobile ont profondément et radicalement modifié la vie des gens alors que les impacts du téléphone, de l’électricité ou du moteur à explosion se sont échelonnés sur ¼, ½ voir presque 1 siècle. C’est en créant de nouveaux usages que ces technologies ont suscité la création de nouvelles infrastructures qui elles même entrainent de nouveaux usages… Les télécommunications, liées aux enjeux énergétiques, commencent maintenant à impacter l’habitat avec l’arrivée des bâtiments intelligents.

C’est pourquoi, dans le contexte de cette problématique émergeante, que Roland Dubois, président d’ASPROM, organise deux jours de séminaire/formation sur le thème de l’habitat intelligent les 20 et 21 mars 2012 à Paris.

Le cercle vertueux infrastructure-usages

Le tout numérique continue sa progression dans la vie quotidienne de chacun. La connectivité partout, tout le temps et pour chacun est déjà intégrée dans les mœurs des plus jeunes et chaque jour voit naitre de nouveaux usages. Le processus de diffusion de ces nouveaux usages dans les différentes couches de la population entrainent les opérateurs, les constructeurs, les fournisseurs de services, les municipalités, les gouvernements… à développer les infrastructures de télécommunications qui permettent de répondre à cette demande, toujours croissante. Les réseaux de fibre optique, on le voit depuis 4 ou 5 ans maintenant, sont devenus une affaire nationale, une obligation incontournable, un élément de la compétitivité économique d’un pays parce qu’aujourd’hui, il est courant et normal de regarder des photos, des films, des vidéos, la TV et d’échanger des contenus multimédia sur Internet.

Des milliers de services développés sur Internet sont rapidement devenus indispensables pour la population et les entreprises. De même, l’amélioration et l’extension des réseaux de téléphonie cellulaire à Internet sont devenues un enjeu pour chaque pays, parce que les services qu’ils offrent deviennent immédiatement incontournables. Il est maintenant presque impensable pour un individu normal de ne pas disposer d’un ordinateur, d’une connexion internet et d’un smartphone, tout comme il est impensable pour un pays de ne pas se préoccuper de ses infrastructures de télécommunications fixes et mobiles.

L’émergence de la problématique énergétique autour du bâtiment

La problématique énergétique donne une nouvelle dimension à la prolifération des télécommunications et des services numériques dans notre vie quotidienne. En effet le contrôle des dépenses d’énergie ou la production locale d’énergie, sont devenu une responsabilité individuelle et collective et elles passent immanquablement par Internet et les telecom, à la maison, dans les entreprise ou dans les villes. Le bâtiment, pris dans son ensemble, est le secteur qui effectue plus de 40% des dépenses d’énergies en France.

D’énormes pertes d’énergie ont lieu tous les jours dans des bâtiments parce que personne ne sait avec précision ce qui est consommé, par quoi ou qui,  et pourquoi ? Ainsi, la réduction de moitié de la consommation du pays (un objectif fixé par les politiques lors du Grenelle de l’environnement) ne pourra pas se faire en ignorant les énormes pertes d’énergies dans les bâtiments, usines et immeubles qui couvrent le territoire. D’autre part, la tâche est collective, c’est-à-dire qu’elle implique les pouvoir publics, les entreprises et les individus eux-mêmes. Il est donc indispensable, et aujourd’hui possible grâce à la convergence d’Internet et des télécommunications fixes et mobiles, de rendre les bâtiments intelligents, c’est-à-dire contrôlable et maîtrisables du point de vue de leur consommation énergétique. Le bâtiment devient intelligent à partir du moment où sa consommation énergétique est mesurée et contrôlée grâce a des dispositifs de monitoring (capteur, systèmes d’analyses, contrôle des appareils électriques etc…).  Mais quelles en sont les conditions, les étapes, les coûts, le enjeux ?

Un séminaire sur l’habitat intelligent réalisé par ASPROM

Au sommaire du séminaire le mardi 20 mars, Jean Robert Millet, (responsable de la division Energie au CSTB (Centre Scientifique et Technique du Bâtiment) examinera les enjeux et les défis posés par le grenelle de l’environnement à l’objectif 2020 dans la mesure où les bâtiments neufs devront être à « énergie positive ». Le changement est radical puisque non seulement les bâtiments devront moins consommer, mais ils devront aussi contribuer à produire de l’énérgie. Commen les villes vont-elles intégrer cette problématique ?

Ensuite, François Pelegrin, Architecte DPLG élaborera sur les stratégies de ruptures possibles en matière de construction pour garantir les coûts, les délais et la fiabilité des nouveaux systèmes constructifs et obtenir des bâtiments véritablement performants.

Un exemple sera décrit par Sébastien Prévot, responsable du pôle R&D chez Cardonnel Ingelerie autour de l’impact de la RT2012 sur la conception des bâtiments tertiaires et la manière dont ils peuvent améliorer les conditions de travail et la productivité.

Régis Lecussan, directeur de Raycreatis montrera l’apport de valeur d’un logiciel communicant de collaboration entre l’architecte et le thermicien.

Arthur Vinson (Responsable Développement Systèmes Constructifs chez Lafarge) abordera la nouvelle règlementation thermique, ses enjeux et son impact sur les méthodes de travail lors de la conception des bâtiments. Il présentera des systèmes constructifs performants traditionnels et innovants.

Par Olivier Servant, Directeur des Marchés – Saint Gobain habitat France abordera les détails de l’optimisation de l’isolation (sols, murs, plafonds, ponts thermiques) en application de la RT2012 pour le neuf et l’anticipation des règles 2020. Il présentera la maison Saint Gobain Multi-confort en pointant sur les techniques utilisées qui permettent de construire des maisons de la génération 2020. Il abordera aussi les aspects de la rénovation des bâtiments existants.

Olivier Gaignon, délégué général de Ignes abordera la problématique de la « smart home » ou la domotique communicante au service des citoyens. Il traitera du logement résidentiel ou collectif et fera le point sur les outils la manière de les intégrer simplement pour se rapprocher des smart grids, ou smart cities…

Olivier Flechon, Chef du Laboratoire d’Energétique du Bâtiment, CEA INES (Institut National de l’Energie Solaire) présentera la plateforme Incas qui comporte 10 bancs de test pour l’intégration du photovoltaïque dans les bâtiments ou résidences.

En fin de journée, Hervé Mary, Directeur Général du LAN abordera le thème de  La maison numérique : nouveau foyer d’intelligence. Il examinera l’impact du développement des réseaux d’infrastructure numériques fixes et mobiles sur la maison et l’utilisation des appareils électriques et électroniques qui la peuplent.

Au sommaire du séminaire le mercredi 21 mars, Eric Nicolas, Délégué au Gimelec abordera le bâtiment Intelligent et ses technologies. Comment répondent elles aux impératifs de coût, de confort, de services, de sécurité et de flexibilité. Il déterminera le QI du bâtiment intelligent.

Patrick Heinrich, Directeur Total Building Solutions chez Siemens abordera la notion de GTB (gestion technique du bâtiment) et son impact sur l’efficacité énergétique du réseau.. La GTB fédère les différents métiers techniques du bâtiment et l’objectif est de passer d’une GTB de «contrôle/commande» à une hypervision globale de bâtiment, plus particulièrement avec l’arrivée des bâtiments à énergie positive.

Stéphanie RICHE, Chef du Laboratoire Systèmes de Capteurs Multimodaux au CEA-LETI apportera des éléments de réponse sur l’apport des TIC dans l’efficacité énergétique des bâtiments. Elle présentera une plateforme expérimentale baptisée@home pour prototyper /maqueter les réseaux de capteurs et actionneurs hétérogènes.

Axel Buendia, Gérant de SpirOps présentera les outils d’intelligence décisionnelle qui offre une assistance pour économiser l’énergie, améliorer le confort et renforcer la sécurité. D’un rôle d’assistant, ces outils deviennent  un vecteur actif de l’évolution des comportements énergétiques des citoyens.

Olivier Hersent, PDG d’Actility traitera de l’évolution vers IP des bus de terrain du bâtiment. La présentation évoquera les nouvelles contraintes d’ouverture des systèmes d’information du bâtiment, vers les locataires notamment. Il parlera aussi de l’évolution des standards récents comme ETSI M2M et 6LowPAN et de leur impact sur la prise en mais par les utilisateurs.

Yves Aiilerie, Business Development Manager chez Intel France et Renaud Deschamps, Directeur général de Lexmark France, président du SFIB (syndicat des industries des technologies

de l’information) parleront de l’impact des bâtiments à énergie positive sur les utilisateurs. Ils décriront le GIE « Enjeu Energie Positive » auquel participent leurs sociétés qui ont développé l’application POEM (Personal Office Energy Monitor), en fonction sur plusieurs sites pilotes.

Enfin pour clôturer les 2 jours, Eric L’Helguen, DG d’Embix (société commune Altsom-Bouygues) détaillera les solutions de mutualisation et d’optimisation mises en oeuvre au niveau de la « Smart City » et s’appuiera sur l’exemple pratique du premier réseau intelligent de quartier, Issy Grid

Retour de Barcelone MWC 2012 – Fréquences rares et nouvelles architectures

4 mars 2012

Cette année, il a fait beau. Pas de parapluies ou d’imperméables, mais un beau ciel bleu et un temps assez doux. Est-ce un indicateur du temps qu’il fera au cours de cette année mobile ? Les multiples annonces effectuées durant cette manifestation semblent le présager… Mais  je ne suis pas vraiment très sûr que le beau temps soit au rendez vous sur le long terme…

Les fréquences hertziennes, « l’or noir » de l’économie du mobile

Les fréquences hertziennes sont à la base de tout l’écosystème du mobile qui s’était réuni à Barcelone à la fin de ce mois de février 2012 comme il le fait depuis maintenant 7 ans. Les fréquences hertziennes sont à l’économie de la téléphonie et de l’internet mobile ce que le pétrole est au vaste système économique construit autour de l’automobile.  Outre un mode de fonctionnement assez complexe, parfois assez mystérieux, voir magique (ou encore maléfique) pour le grand public,  la grandes particularité des fréquences est d’être une ressource rare. Pourtant, jusqu’à une époque assez récente, on ne se souciait guère ce cet aspect clé… un peu comme le pétrole qu’on a largement gaspillé pendant des années et dont aujourd’hui on voit les réserves s’épuiser.  Les fréquences hertziennes disponibles pour alimenter une demande croissante de services mobiles et transporter des quantités de données en croissance exponentielle sur des territoires toujours plus vastes sont extrêmement rares.

Améliorer l’information sur les fréquences

Pour cela, il faudrait mettre en place une véritable politique de gestion des fréquences, à la fois au niveau de chaque pays et au niveau international, permettant une meilleure information et une plus grande transparence. La récente tentative manquée du rachat de T-Mobile par AT&T aux Etats Unis, qui s’appuyait sur une argumentation plus ou moins crédible autour d’un soit disant manque de fréquences pour couvrir le territoire en 4G, a bien mis en évidence les besoins d’information et de clarté sur les choix et les équations économiques de certains opérateurs. Ainsi AT&T en mettant la main sur un vaste ensemble de fréquences, renforçait et verrouillait son monopole sur l’ensemble du territoire américain.

Lors du MWC 2012, le Dr Hamadoun Touré, Secrétaire Général  de l’ITU (International Télecommunication Union) rappelait le rôle éducatif de l’institution qu’il dirige. « L’attribution des fréquences est un processus complexe qui répond à des règles techniques précises, plus particulièrement parce qu’il faut prévenir les interférences, expliquait-il.  Mais elle répond aussi à de longs processus de négociations entre les acteurs qui participent à leur utilisation.» Pour lui, il est nécessaire de promouvoir une régulation fortement renouvelée qui ne soit plus basée sur la prédominance de la voix mais prenne en compte les nouvelles caractéristiques du monde des télécom ou les données prédominent sur les réseaux mobiles à haut débit. « Nous devons faciliter une meilleure régulation, ajoute-t-il, qui crée de la valeur et de la concurrence et permettre le passage de l’analogique au numérique, dans tous les pays. »

Partage et mutualisation des réseaux.

Dr Hamadoun Touré Sec Gal ITUUne information plus détaillée sur les processus d’allocation des fréquences et de partage des réseaux (fixes et mobiles) semble donc nécessaire. En effet la dernière conférence WRC-12 de Genève en janvier 2012 mettait en place les fondements d’une nouvelle régulation des fréquences après 4 semaines de négociations intensives ou les enjeux comme la mutualisation, l’usage efficace du spectre, le partage des infrastructures ont été longuement discutés. Certains aspects de partage et de mutualisation des réseaux mobiles renvoient directement à la récente polémique inepte autour de la couverture du réseau du nouvel opérateur Free Mobile en France. Des attitudes rétrogrades comme celle de Jean Bernard Levy patron de SFR qui accuse France Télécom d’avoir louée son réseau à Free montrent un évident besoin d’information et d’explication pour le grand public. Une plus grande transparence sur la manière dont sont allouées les fréquences (un bien public rare), sur la manière dont sont partagés (ou pas) les réseaux fixes et mobiles permettront aux utilisateurs de mieux différencier les offres et améliorera la concurrence sur le marché…

La qualité des réseaux mobiles laisse à désirer

L’arrivée de la téléphonie mobile 4G est maintenant une chose acquise, mais la question reste de savoir quand les déploiements commerciaux auront-ils lieu ? Les réseaux sont-ils prêts ? Y aura-t-il suffisamment de fréquences pour répondre aux besoins toujours croissant de transport des données pour chacun, en tous lieux et à toute heure ? Quels investissements ces réseaux nécessitent-ils?  Quelle mutualisation des réseaux faut-il promouvoir pour accroitre l’efficacité des infrastructures et en baisser les coûts ?  Aujourd’hui, quelques pilotes pré-4G, fortement relayés médiatiquement, ont lieu dans plusieurs pays dont la Suède et les Etats Unis, mais dans la réalité, les réseaux 4G ne sont pas encore là et la qualité des réseaux mobiles laisse à désirer. D’autre part, le problème de la voix sur le 4G n’est pas encore résolu et plusieurs solutions étaient présentées à MWC par Fraunhaufer, Qualcomm ou d’autres fabricants de composants.

Une nouvelle vague d’innovation dans les équipements

Au MWC de Barcelone un foisonnement de nouvelles technologies et d’architectures pour l’équipement de ces réseaux était présenté chez les grands équipementiers, et les moins grands. Ainsi parmi les grands, Alcatel-Lucent cherche à reprendre la main en matière d’innovation pour ne pas se laisser désintégrer par les équipementiers chinois très agressifs ou par le géant Coréen Samsung qui a clairement indiqué ses intentions dans ce secteur. Quelques start’up Françaises comme e-Blink se distinguent par des solutions originales.

L’arrivé du 4G, beaucoup plus puissant,  plus souple et plus flexible que le 2G et 3G, pose de nouveaux problèmes d’architecture de réseau qui nécessitent des approches nouvelles.  Il en résulte un regain d’innovation sur la manière de multiplier les cellules pour augmenter la couverture et répondre à la demande exponentielle d’un nombre croissants d’utilisateurs, tout ceci compte tenu du spectre disponible. D’autres développements innovants apparaissent aussi sur la manière de soulager le réseau cellulaire en basculant automatiquement vers les réseaux WiFi. Cependant l’approche femtocells où le particulier dispose d’un boitier à la maison qui relaie le signal 3G et assure le basculement vers le WiFi, semble avoir été abandonnée par les opérateurs qui voient dans ce boitier une menace sur la sécurité de leurs réseaux.

Le rachat de T-Mobile par AT&T opposé par la FCC et la justice américaine

27 novembre 2011

En demandant une enquête administrative, la FCC vient de confirmer son refus d’approuver le rachat de T-Mobile par AT&T pour 39 milliards de dollars, marquant ainsi un coup d’arrêt à la consolidation excessive parmi les opérateurs mobiles aux Etats Unis, dans la mesure où le consommateur américain n’en bénéficierait pas, au contraire.

Procès antitrust et enquête administrative

En mars 2011, AT&T, le deuxième opérateur mobile aux Etats Unis, annonçait sont intention de racheter T-Mobile, filiale américaine de Deutsche Telekom. Le nouvel ensemble crée constituerait le premier opérateur mobile américain avec 43% de part de marché en nombre d’abonnés.  En Aout, après de nombreuses protestations de la part des organismes de consommateurs et de certains membres de l’industrie, le DOJ (Department of Justice) intentait un procès antitrust pour bloquer ce rapprochement sur la base d’un certain nombre d’arguments qui, toutes proportions gardées, attribuent à T-Mobile un rôle à peu près identique à celui que joue Free en France face à l’inertie de l’opérateur historique appuyé sur une position fortement dominante et un comportement très monopolistique.

T-Mobile, un peu comme Free en France…

Faire disparaitre T-Mobile aux US, c’est un peu comme si on tentait de faire disparaitre Free en France… !! Julius Genachowski, Chairman de la FCC, l’agence fédérale de régulation des télécommunications, équivalent de notre Arcep Française, avait déjà indiqué lors de l’action du DOJ « la concurrence est un composant essentiel de l’analyse légale de l’intérêt public de la FCC, et bien que le processus ne soit pas achevé, les éléments dont dispose l’agence lèvent de sérieux doutes sur l’impact de cette transaction sur la concurrence. »  Aujourd’hui, très clairement, en accord sur le principe avec le DOJ, la FCC  laisse entendre qu’elle n’est pas été en mesure d’approuver l’accord passé entre AT&T et Deutsche Telekom parce qu’il réduirait la concurrence de façon significative et conduirait à une réduction massive d’emplois….Un responsable de la FCC indiquait : « Les résultats de l’enquête montrent, et ceci pas en termes vagues, que ce rapprochement résulterait en une perte passive d’emplois aux Etats Unis et à une perte d’investissement… ».

Moins de 50% de chance d’aboutir

La coûteuse campagne de communication entamée par AT&T pour tenter de faire croire l’inverse fait donc long feu. Même si l’action anti-trust du DOJ n’abouti pas (le procès doit se dérouler en février prochain si AT&T décide de s’y opposer), la décision de la FCC d’envoyer AT&T dans une enquête administrative ajoute une nouvelle procédure qui renforce les doutes sur de rapprochement et diminue encore plus les chances d’une conclusion favorable pour AT&T dans les délais. En effet la procédure d’enquête administrative devant un juge demandée par la FCC  s’appliquera après le procès Antitrust si AT&T le gagne, et les termes de l’accord entre AT&T et Deutsche Télékom indiquent que toutes les autorisations nécessaires doivent être obtenues avant la date du 20 septembre 2012, date qui peut bien sur être prorogée par les 2 parties.

Les analystes de l’agence de notation Moody indiquaient récemment qu’il y a maintenant moins de 50% de chance que l’accord soit finalement conclu. Les chances d’AT&T s’amenuisent au fur et à mesure où les opposants déclinent les multiples terrains d’attaque. En effet pour gagner le procès antitrust, le DOJ cherchera à démontrer que le rapprochement diminue significativement la concurrence sur le marché et l’enquête administrative de la FCC attaquera sur un autre plan en cherchant à démonter que le rapprochement va contre l’intérêt public, un argument plus facile à démontrer.

Des risques et des coûts importants

Pour les responsables d’AT&T qui ont déjà repoussé leurs objectifs de conclusion définitive du contrat en juin 2012, la démarche de la FCC est mal venue : « C’est encore un autre exemple que l’agence gouvernementale cherche à s’opposer à des milliards de nouveaux investissements et à la création ne nombreux nouveaux emplois, alors que l’économie américaine a désespérément besoin des deux » disait Larry Solomon, un VP de AT&T dans un communiqué.  Mais AT&T ne peut pas entrer en opposition ouverte avec la FCC et les responsables d’AT&T semblent prêts à se séparer  de plusieurs actifs importants qui pourraient calmer le régulateur et affaiblir les arguments du DOJ.

Cependant, l’impact d’un échec d’AT&T dans sa tentative risque de lui coûter très cher (coût qui sera probablement reporté en augmentation des tarifs chez AT&T..) sachant qu’il vient de provisionner 4 milliards de dollars pour couvrir les éventuelles compensations à payer à Deutsche Télécom en cas de non rachat. Celles-ci seraient estimées au total à près de 6 milliards de dollars…. Pour T-Mobile, qui aurait perdu 850000 clients en un an l’année dernière, les enjeux sont encore plus importants car sa survie pourrait être en jeu…

Sortir de l’impasse

Immédiatement après l’annonce de la démarche de la FCC, les responsables d’AT&T et de Deutsche Telekom ont utilisé une procédure juridique du règlement de la FCC qui leur permet de retirer leur demande de régularisation du rachat de T-Mobile par la FCC (aux conditions du contrat initial) et donc d’éviter que celle-ci ne mette en place son enquête administrative et ne puisse mettre en évidence certains aspects que les responsables d’AT&T ne souhaiteraient pas voir dévoilés au grand public… Leur objectif, selon plusieurs analystes, est d’essayer d’obtenir un accord à l’amiable avec le département de la justice (DOJ) et ensuite de revenir auprès de la FCC pour demander la validation d’un nouvel accord de rachat, sur des bases différentes. Plusieurs rumeurs laissent entendre que AT&T envisagerait de revendre une bonne partie des actifs de T-Mobile obtenus, jusqu’à 40%, ce qui constituerait un véritable démantèlement de la filiale de l’opérateur historique Allemand.

Prochaine audition le 30 novembre

De nouveaux éléments seront probablement dévoilés sur la stratégie adoptée par AT&T lors de la prochaine audition préparatoire du procès anti trust qui sera tenue le 30 novembre prochain par le juge Ellen Huvelle de la cours du District de Columbia (Washington DC).

La Voiture électrique : quelles technologies ? quels usages ? quand ? et comment ?….le 17 et 18 Novembre à l’Asprom

23 octobre 2011

Roland Dubois, Président de l’ASPROM, continue son prosélytisme consciencieux et lucide autour des technologies qui vont changer notre manière de vivre… disons plutôt celle de nos enfants ! Toujours en avance d’une technologie, il réunit régulièrement un large panel de spécialistes autour d’un thème technologique plus ou moins spécifique qu’ils décortiquent, détaillent, analysent, expliquent et évaluent, pour notre plus grand plaisir, mais surtout pour nous permettre d’en comprendre la portée et les enjeux.

En effet, trop souvent les technologues s’enferment derrière leurs habitudes, leurs langages, leur savoir, leurs travaux et ne prennent pas le temps de les communiquer, de les expliquer de les projeter dans la vie de tous les jours pour les gens normaux. En général, plus les technologies sont complexes, innovantes et structurantes, plus ils abandonnent ce travail aux communicateurs ou aux sociétés qui vendent les produits issus de leurs travaux, mais hélas souvent ces derniers se laissent tenter par des messages plus simples, plus directs et aussi plus mercantiles. Les exemples sont nombreux.

Même si les cycles de l’Asprom ne s’adressent pas tout à fait au grand public, ils permettent un vaste échange d’idées, de perspectives et une réflexion prospective autour de thèmes qui concernent chacun, pour peu qu’on arrive avec un minimum de culture technologique et un peu de curiosité. C’est pour cette raison que je rends compte autant que possible de ces rencontres, les intervenants sont de première qualité et les sujets abordés méritent qu’on s’y attarde.

Après avoir abordé le thème du smart Grid pendant 2 journées (voir différents compte-rendus sur ce site…. ), l’Asprom abordera le mois prochain, toujours sur 2 jours, le thème de la voiture électrique dont les enjeux technologiques, économiques, sociaux et par conséquent politiques sont nombreux et loins d’être bien connus de tous. « Pas d’émission de CO2, et pas de bruit, la voiture électrique est l’idéal en ville… » Pour en arriver là, de nombreuses technologies existent mais certaines sont lourdes, coûteuses, difficiles à déployer largement, d’autres sont encore à l’état de test et beaucoup de questions se posent sur leur viabilité industrielle, les coûts qu’elles impliquent en infrastructures, les nouvelles contraintes qu’elles imposeraient aux utilisateurs.

Le séminaire aura donc pour objet de présenter les différentes technologies existantes de véhicules électriques et d’examiner les conditions dans lesquelles elles pourraient amener au développement de différents types de véhicules. Ont été conviés à s’exprimer quelques-uns des meilleurs experts français. Ils présenteront et commenteront les derniers développements en matière de véhicules électriques et discuterons sur les usages des véhicules électriques ainsi que la manière dont ils pourront se développer progressivement grâce a des infrastructures adéquates.

Le programme se déroulera sur 2 jours les 17 et 18 novembre 2011 dans les locaux de Ia FIEEC, 11 rue de l’Amiral Hamelin à Paris.

–        Alain Bouscayrol, Professeur à l’Université Lille1, animateur du réseau MEGEVH (Modélisation Energétiques et Gestion d’Energie des Véhicules Hybrides) introduira ces 2 jours par une réflexion sur la manière dont les nouvelles techniques de propulsion répondent aux nouvelles contraintes environnementales ainsi qu’aux besoins des utilisateurs. Faut-il faire des compromis ? Y-aura-t-il différents types de véhicules ? Quels enjeux impliquent-ils ?

–        Florence Lambert, Chef du département de l’électricité et de l’hydrogène pour les transports et Eric Lemaitre du CEA Liten passeront en revue l’existant en matière de véhicule électrique en France proposé par les constructeurs automobile, les types de batteries utilisées, et les perspectives de développements de batteries à court terme selon les 3 critères déterminants :coût, durée de vie et sécurité. Ensuite, Thierry Koskas, Directeur du Programme Véhicule Electrique chez Renault parlera des réalisations du constructeur et de ses ambitions en matière de véhicule électrique.

–        Claude Ricaud, Directeur Innovation Schneider Electric / Power business, Président de la plateforme IRVE Gimelec et par Alain Le Calve, directeur adjoint du Gimelec aborderont les problèmes posés par les infrastructures nécessaires, leur coût et leur déploiement. Ils seront suivis, sur le même thème par Gilles Bernard, Directeur des Projets chez ERDF Distribution qui parlera de l’impact des infrastructures de recherche sur les réseaux publics d’électricité.

–        Olivier Hersent, PDG d’Actility  fera le point sur les nombreux problèmes posés par l’absolue nécessité de l’établissement de normes et de standards (techniques ou non) de la recharge, et leurs implications aux différents niveaux de la chaîne (dont la sécurité) jusqu’à l’utilisateur final.

–        Georges Gallais, président de VU Log, Spin Off de l’INRIA et Olivier Delassus, directeur de PROXIWAY du groupe VEOLIA-TRANSDEV parlerons des différents moyens de transports location, taxi, vélib, autolib et les solutions d’autopartage qui s’offrent aujourd’hui aux usagers. Ils seront suivit de Patrick Le Cœur de la Ville de Paris, Direction de la Voirie et des Déplacements, Agence de la Mobilité – Pôle mobilités électriques-  qui expliquera la mise en œuvre et le déploiement d’Autolib à Paris, ses challenges et ses enjeux dans le cadre des véhicules électriques.

–        Samuel Loyson, Directeur Marketing pour les automobiles connectées chez ORANGE expliquera l’importance d’être toujours connectée pour le véhicule électrique et puis Fawzi Nashashibi, Directeur de recherche à l’INRIA, responsable de l’équipe IMARA abordera les nouveaux concepts de car sharing dans les services publics et la gestion des flottes de véhicules électriques. L’automatisation dans les systèmes de transports intelligents est-elle la prochaine étape permise par les progrès dans la robotique ?

–        La technologie HYbrid4 PSA Peugeot-Citroën repose sur plusieurs innovations intéressantes comme l’association hybride Diesel, le choix d’une architecture hybride parallèle et l’intégration de la propulsion électrique dans un modèle hybride modulaire. La Peugeot 3008 HYbrid4 sera le premier véhicule commercialisé.

–        Gaizka Alberdi de EDF parlera de l’impact du déploiement à grande échelle des transports électriques pour les réseaux et dans l’organisation de la distribution électrique aux particuliers et aux industriels particulièrement dans les périodes de charge. Qu’est-ce que « la recharge intelligente » ?

–        Pierre Beuzit, Président d’ ALPHEA Hydrogène, Président du CNRT Ineva et Jean-Baptiste Mossa de AIR LIQUIDE aborderont le thème de l’hydrogène et la pile à combustible comme un axe de développement du véhicule propre et Rochdi Trigui, Chercheur à l’IFSTTAR1, co-animateur du réseau MEGEVH abordera le thème de l’hybridation et ses perspectives.

–        Le séminaire s’achevera par une table ronde sur le thème : l’auto-partage est-il un modèle économique rentable ?

Ceux quoi sont intéressés peuvent s’inscrire sur le site de l’Asprom.

Bouygues Télécom signe avec Axione : Les Réseaux d’Initiative Publique intéressent les opérateurs

25 septembre 2011

La semaine dernière à Angers, Axione annonçait la signature d’un partenariat avec sa maison mère proche parente l’opérateur Bouygues Télécom, qui d’un seul coup gagne accès à 14 Réseaux d’Initiative Publique gérés par Axione, le plus souvent dans des départements et des zones d’assez faible densité urbaine, sur lesquels il pourra présenter ses offres haut débit et très haut débit fixe à destination des entreprises et du grand public. Pierre-Eric Saint-André, Directeur Général d’Axione indique que Axione couvre 10% de la population Française grâce à ses RIP, dans des zones ou en général le RIP est le seul concurrent à l’ancien opérateur historique.

Cet accord intervient alors que la grogne monte sensiblement chez les collectivités territoriales qui se voient reléguées au rôle de « payeur passif » dans leurs nouvelles fonctions d’aménagement du territoire numérique à travers la mise en œuvre des infrastructures et des services numériques sur leur territoire. Cet accord intervient aussi à un moment ou Bouygues Télécom, opérateur sans fil, s’est rendu compte  il y a 3 ans qu’une stratégie basée sur le sans fil uniquement le menait nulle part et se déploie maintenant dans le fixe. Cet accord intervient enfin à un moment où France Télécom, sans vraiment le dire, essaie silencieusement de renouveler dans les zones rurales le « coup » des départements innovants joué dans les années 2004 pour tenter de contrecarrer les effets du 1425 en signant des accords d’exclusivité avec certains départements.

Les RIP, des réseaux ouverts pour les opérateurs

En effet, les collectivités territoriales les plus dynamiques ont depuis plusieurs années financé et mis en place des Réseaux d’Initiatives Publiques, plus d’une centaine, sous forme de réseaux d’infrastructures de fibre optiques pour dégrouper les NRA et depuis peu pour préparer la mise en place du FTTH.  Parce que les collectivités locales ne peuvent pas devenir opérateur et gérer directement ces réseaux, une fois construits ceux-ci doivent être louées à des opérateurs (nationaux ou plus petits) comme réseaux de  « collecte » pour servir de relais de transport des données jusqu’à la boucle locale dans le cas du haut débit ou pour aller jusqu’à l’abonné dans le futur très haut débit fibre.

Mais dans le climat de compétition actuel,  France Télécom dispose d’une infrastructure de réseau bien plus étendue et plus puissante que celle de ses concurrents et joue de cet avantage (en grande partie payé par les contribuables lorsqu’il était opérateur historique) pour affaiblir ses concurrents et s’accrocher sur des positions de monopoles dont il devient inexpugnable. Compte tenu des investissements que représente la mise en place d’une infrastructure de réseau (essentiellement en génie civil), la possession d’une telle infrastructure est un avantage compétitif indiscutable.

Les RIP plutôt mal vus par les opérateurs

Là-dessus intervient le grand emprunt et les quelques milliards qui seront attribués aux opérateurs et aux collectivités dans le cadre du plans numérique consciencieusement mis en place par les ministères et les technocrates parisiens. « On veut bien vous accorder des subventions pour mettre en place ce gigantesque et couteux réseau d’infrastructure numérique », dit-on aux collectivités locales, « mais pour des raisons d’efficacité économique, il vous faut planifier le développement, agir de concert et vous entendre avec les opérateurs qui eux aussi vont investir (mais parfois se font un peu prier). Il faut vous entendre entre communes,  entre régions et départements. »

Dans la pratique, les RIP, construits par les collectivités locales sont assez mal vus par les opérateurs et bon nombre de RIP, construits aux frais des contribuables, ne trouvent pas d’opérateurs clients car ces derniers préfèrent investir à côté des RIP, pour servir des stratégies parfois douteuses de récupération d’aides de l’Etat dans le cadre de ce grand emprunt dont les règles sont appliquées de façon obscures. Au final, les contribuables financent d’un côté les RIP qui sont sous-utilisés et de l’autre, l’Etat (encore le contribuable) finance les opérateurs par le biais du grand emprunt pour les inciter à construire leur propre réseau….  en parallèle des RIP inutilisés. D’un côté les RIP cherchent à assurer une couverture de l’ensemble du territoire alors que les opérateurs vont s’installer dans les zones les plus denses, les plus rentables. C’est une image à peine déformée du résultat de la concurrence par les infrastructures imposée de façon uniforme par la commission Européenne et suivie à la lettre en France.

270000 foyers angevins en haut débit

Pierre-Eric Saint-André, Directeur Général de Axione rendait donc officiel, en présence de Christophe Bechu, jeune Président du Conseil Général du Maine et Loire, cet accord qui pourrait marquer un tournant dans le paysage du haut débit et très haut débit rural. En effet, dit-il, « les 14 RIP gérés par Axione offrent ainsi au dégroupage 700 NRA (nœuds de raccordement d’abonnés, encore appelé répartiteur) à Bouygues Télécom ce qui représente une population de près de 1.25 millions de lignes réparties sur 4500 communes situées dans des zones souvent peu peuplées » (où France Télécom règne en maitre ndlr..).

Dans le Maine et Loire, en accédant au réseau Melis@, un RIP dont Axione est délégataire, Bouygues pourra ainsi dégrouper près de 90 NRA et proposer ses offres haut débit à plus de 270000 foyers angevins. Aujourd’hui, Melis@ est utilisé principalement par 24 opérateurs qui proposent des accès au grand public ou aux entreprises ainsi que des offres de services spécifiques. Mais SFR et Free utilisent aussi Melis@ en partie pour étendre leur offre à certains zones de l’Anjou. Pierre Eric Saint André précise que cet accord montre « la confiance des opérateurs nationaux à l’égard de ceux qui gèrent les RIP ». Il explique que « cet accord conforte le rôle des collectivités dans la mis en œuvre du plan très haut débit français dans le cadre d’une politique d’investissements publics/privés.»

Quelles économies d’échelle ?

Olivier Roussat, Directeur Général de Bouygues, s’abstenait cependant de préciser les termes du contrat signé avec Axione, plus particulièrement les conditions techniques et le prix payé par Bouygues Télécom pour se connecter à ces 14 RIP.  Il semble que ce détail ait de l’importance puisqu’il indiquait cependant que l’accord permettait à l’opérateur de réaliser d’importantes économies  d’échelle, plus particulièrement dans la manière dont était effectuée l’interconnexion…Il serait intéressant d’avoir des explications là-dessus, l’avenir des RIP pourrait s’éclaircir. Cette approche d’économie d’échelle pourrait-elle intéresser les opérateurs sollicités par les RIP sur les territoires ?

Le SDTAN doit s’ajuster au SCoRAN…

Christophe Béchu, Président du Conseil Général d’Anjou indiquait que son département travaillait activement sur son SDTAN (Schema Directeur Territorial d’Amenagement Numérique)  pour accélerer le développement économique de son territoire. « Si Melis@, partenariat public privé, a reçu 14.5 millions d’Euros d’aides du département et d’autres subventions dit-il, l’affaire n’est pas pour autant réglée car il y a encore du chemin à parcourir, les débits sont encore insuffisant dans certains endroits et il faut penser au très haut débit pour ce département placé 5ème en France pour ses activités agricoles ». « Notre SDTAN, poursuit-il,  doit s’ajuster avec la stratégie de cohérence régionale pour l’aménagement numérique (SCoRAN) sachant que Melis@ est déjà interconnecté avec le RIP de la Sarthe (Sartel, un autre RIP d’Axione) et que nous travaillons aussi avec la Vendée ».

France Télécom sabote les plans des départements

Il précisait cependant que les délibérations sur le SDTAN étaient sensiblement retardée dans la mesure où les intentions d’investissement de l’opérateur historique étaient affirmées à Angers, Cholet et Saumur, mais loin d’être gravées dans le marbre. Il précisait « la décision est légérement retardée pour éviter que France Télécom ne prenne avantage de nos décisions à nos dépends »…

Il semble que cette attitude de France Télécom, qui bloque les décisions et a déjà saccagé pas mal d’initiatives dans les départements, contribue assez fortement à la grogne des élus. L’une des principales revendications des élus est de voir publiées une fois pour toutes les intentions des opérateurs en réponse à l’AMII (Appel à Manifestation d’Intention d’Investissements) lancé par l’Etat et de ne pas en permettre les modifications au gré de l’élaboration des SDTAN sous prétexte de SCoRAN.