Archive for the ‘Régulation’ category

GOOGLE RALE CONTRE LA DECISION DE REGULER LES VOITURES SANS CHAUFFEURS

19 décembre 2015

Goggle self driving car

La Californie met en place une régulation pour contrôler et sécuriser l’utilisation des véhicules sans chauffeur. L’initiative s’étendra aux autres Etats.

Le DMV (Department of Motor Vehicules) de Californie est l’autorité qui règne sur le code de la route, les permis de conduire et immatricule tous les véhicules dans l’Etat de Californie. La semaine dernière, conformément a un amendement passé par le Sénat Américain en 2012, il vient d’émettre une  nouvelle série de régulations concernant les modes d’utilisation et de circulation des véhicules sans chauffeurs, les fameux self-driving cars dont Google a été le précurseur, avec l’assentiment bienveillant de Jerry Brown, le Gouverneur de Californie. Comme prévu, une série de réactions positives, accompagnée d’une série de réactions négatives à cette décision a immédiatement traversé la presse et les blogs locaux, chacun y allant de son petit argument personnel. La réaction la plus remarquée fut celle de Google à travers un communiqué assez laconique «   We’re gravely disappointed that California is already writing a ceiling on the potential for fully self-driving cars to help all of us who live here…” qui cependant n’explique pas vraiment les raisons de la nocivité de cette régulation.

10 accidents documentés en un an

Dans son communiqué de presse, le DMV indique que cette régulation est destinée aux constructeurs et sociétés qui effectuent des tests de voitures autonomes en vrai grandeur, dans la circulation ouverte. En effet, lorsqu’on se promène aux alentours du quartier de Mayfield à Mountain View, là où se trouve Google X, il est fréquent de croiser l’un ou l’autre de ces véhicules de test, facilement reconnaissables par leurs antennes sur le toit et des capteurs accrochés un peu partout sur la voiture. Le Directeur du DMV, dans son communiqué, indique qu’au début du mois de décembre, plus de 10 sociétés dont Tesla, Google, Mercedes, Volkswagen, Delphi, Bosch, BMW, Nissan…. et non pas Apple) ont obtenu du DMV l’autorisation de faire circuler leurs véhicules sans chauffeur.  Dans ce même communiqué figure la liste des 10 accidents documentés qui ont impliqué des véhicules sans chauffeurs depuis le 14 octobre 2014, dont 9 concernent des véhicules appartenant  à Google…Google a cependant commencé de tester les véhicules autonomes dès 2009, il aurait réalisé plus de 2 millions de km et aurait été impliqué dans une vingtaine d’accidents au total. Il mentionne que la plupart des accidents sont dus à la distraction des autres conducteurs qui viennent heurter les véhicules sans chauffeur…  Il n’y aurait eu aucun blessé…

Quelques principes simples à respecter

Les quelques principes de cette régulation obligent la présence d’un conducteurs doté d’un permis de conduire dans le véhicule. Ce conducteur qui aura l’entière responsabilité du véhicule sera aussi responsable des manquements au code de la route et devra être en mesure de reprendre contrôle du véhicule en cas de difficulté ou d’incident.  Les constructeurs ou développeurs de ces véhicules doivent être accrédités auprès du DMV après avoir rempli un dossier complet. Ils doivent fournir des compte-rendus mensuels d’utilisation et des conditions de sécurité du véhicule et documenter et déclarer les accidents dans un délai de 10 jours. Ils n’ont pas le droit de vendre les véhicules développés au public, mais en revanche ils peuvent les louer.

De nombreuses consultations ouvertes

voiture devant GoogleXContrairement à certaines pratiques françaises du « dialogue social »  où des décisions sont prises par les autorités gouvernementales sans consultation directe et préalable de l’ensemble des intéressés, la décision du DMV a été prise à la suite de plusieurs séances de travail publiques dont 2 tenues en 2013, 3 en 2014 et une en janvier 2015. Toutes les minutes de ces travaux et les vidéos des présentations effectuées sont disponibles sur Internet.  Suite à cette régulation, deux autres séances de travail sont déjà annoncées le 28 janvier et le 2 février prochain, ces séances seront ouvertes au public.

Un jour peut-être en France…

« Le véritable challenge de ce type de régulation est de trouver un bon équilibre entre assurer la sécurité publique et faciliter l’innovation technologique » indique le directeur du programme  California Partners for Advanced Transportation Technology (PATH) de l’Université de Berkeley. « Le poids repose sur les développeurs qui doivent prouver que leur invention est suffisamment sure et ne vas pas remettre en cause la sécurité publique ». En France, le principe de précaution, soigneusement respecté, fait qu’on ne peut même pas penser voir un de ces véhicules dans nos rues. Il faudra attendre que ces véhicules soient testés ailleurs…par d’autres…

 

AVICCA: Le très haut débit est-il en panne?

20 mars 2012

Le colloque bi-annuel de l’AVICCA qui s’est déroulé hier posait la question de la mise en œuvre du plan très haut débit en France et très clairement, son Président Yves Rome sonnait le signal d’alarme, une fois de plus. Cependant pratiquement au même moment à Bruxelles, Stéphane Richard, PDG de France Télécom et Neelie Kroes, Vice-Présidente de la Commission Européenne pour l’Agenda Numérique se congratulaient, le premier fier de ses 10 nouveaux engagements et la seconde sur son action pour une économie numérique européenne compétitive et durable.

Pas de 2 médiatique ?  Deux des 10 engagements de Stéphane Richard portent en effet sur le haut débit : le premier sur le déploiement du réseau 4G/LTE dans toutes les filiales européennes d’Orange d’ici 2015 et l’autre, vieux serpent de mer en France, est le déploiement du FTTH pour 15 millions de foyer et 80% de la population Française d’ici 2020…

 Les objectifs 2020 ne seront pas atteints

Très clairement, selon Yves Rome, on sait dès aujourd’hui qu’à la vitesse où le déploiement se réalise en France aujourd’hui, on sera loin d’atteindre le second objectif à l’échéance indiquée… Comme d’habitude, les opérateurs ne tiennent pas leurs promesses, où ils expriment leurs promesses de façon tellement peu mesurable qu’ils auront de toute façon raison à la fin… Il faut reconnaitre cependant que ce comportement n’est pas une prérogative uniquement spécifique à France Télécom, mais celui-ci est beaucoup plus visible du fait qu’il est l’opérateur historique en position dominante… France Télécom est ainsi considérée dans le milieu des collectivités locales comme étant celui qui a fortement ralenti, voire empêché, le développement rapide de la fibre en France. Le colloque de l’Avicca a été l’occasion pour de nombreuses collectivités de l’exprimer en expliquant leur action pour la mise en place de réseaux de fibre à destination des abonnés, réseaux de fibres qu’on appelle RIP (réseaux d’initiative publique), un sigle qui pourrait aujourd’hui être considéré comme une certaine forme d’humour noir.

La France numérique, 17ème en Europe, prend du retard dans le FTTH

Yves Rome, dans l’introduction qu’il faisait de cette journée, pose très clairement le problème des opérateurs qui font de grandes et jolies promesses et qui ne les tiennent pas, pour des raisons toutes aussi valables les unes que les autres, tant qu’il n’y a pas de sanction. Aujourd’hui, les opérateurs ont cessé de s’intéresser au FTTH fixe, au profit du mobile. Il ne manque pas de mentionner que la France, dans le concert  Européen des nations fibrées, est aujourd’hui classée en 17ème position pour le taux de pénétration de la fibre à l’abonné, entre la Turquie et la république Tchèque… !

Volonté et transparence sont en berne chez les opérateurs privés pour ce qui concerne le FTTH et leur sincérité est fortement mise en cause dans la mesure où ils refusent la mesure des objectifs et la sanction de ceux qui ne sont pas atteints. Se jouant des différents mécanismes incitatifs qui ont été mis en place, au niveau réglementaire et financier, les opérateurs, dans leur comportement, nient presque complètement les réseaux d’initiative publique et entrent même en concurrence avec eux, en cassant les prix ou en construisant leur propre réseau en doublon, là où l’argent public des contribuables a déjà été sollicité, ou encore en s’abstenant de s’impliquer, là où il serait souhaitable et pourtant rentable pour eux. Cette situation doit-elle changer ? Peut-elle changer ? Mais comment ?

Yves Rome, introduction du colloque de l’Avicca du 19 mars 2012

LE BATIMENT INTELLIGENT AU COIN DE LA RUE… NOUVELLES PROBLEMATIQUES

6 mars 2012

En moins d’une décennie, Internet et la téléphonie mobile ont profondément et radicalement modifié la vie des gens alors que les impacts du téléphone, de l’électricité ou du moteur à explosion se sont échelonnés sur ¼, ½ voir presque 1 siècle. C’est en créant de nouveaux usages que ces technologies ont suscité la création de nouvelles infrastructures qui elles même entrainent de nouveaux usages… Les télécommunications, liées aux enjeux énergétiques, commencent maintenant à impacter l’habitat avec l’arrivée des bâtiments intelligents.

C’est pourquoi, dans le contexte de cette problématique émergeante, que Roland Dubois, président d’ASPROM, organise deux jours de séminaire/formation sur le thème de l’habitat intelligent les 20 et 21 mars 2012 à Paris.

Le cercle vertueux infrastructure-usages

Le tout numérique continue sa progression dans la vie quotidienne de chacun. La connectivité partout, tout le temps et pour chacun est déjà intégrée dans les mœurs des plus jeunes et chaque jour voit naitre de nouveaux usages. Le processus de diffusion de ces nouveaux usages dans les différentes couches de la population entrainent les opérateurs, les constructeurs, les fournisseurs de services, les municipalités, les gouvernements… à développer les infrastructures de télécommunications qui permettent de répondre à cette demande, toujours croissante. Les réseaux de fibre optique, on le voit depuis 4 ou 5 ans maintenant, sont devenus une affaire nationale, une obligation incontournable, un élément de la compétitivité économique d’un pays parce qu’aujourd’hui, il est courant et normal de regarder des photos, des films, des vidéos, la TV et d’échanger des contenus multimédia sur Internet.

Des milliers de services développés sur Internet sont rapidement devenus indispensables pour la population et les entreprises. De même, l’amélioration et l’extension des réseaux de téléphonie cellulaire à Internet sont devenues un enjeu pour chaque pays, parce que les services qu’ils offrent deviennent immédiatement incontournables. Il est maintenant presque impensable pour un individu normal de ne pas disposer d’un ordinateur, d’une connexion internet et d’un smartphone, tout comme il est impensable pour un pays de ne pas se préoccuper de ses infrastructures de télécommunications fixes et mobiles.

L’émergence de la problématique énergétique autour du bâtiment

La problématique énergétique donne une nouvelle dimension à la prolifération des télécommunications et des services numériques dans notre vie quotidienne. En effet le contrôle des dépenses d’énergie ou la production locale d’énergie, sont devenu une responsabilité individuelle et collective et elles passent immanquablement par Internet et les telecom, à la maison, dans les entreprise ou dans les villes. Le bâtiment, pris dans son ensemble, est le secteur qui effectue plus de 40% des dépenses d’énergies en France.

D’énormes pertes d’énergie ont lieu tous les jours dans des bâtiments parce que personne ne sait avec précision ce qui est consommé, par quoi ou qui,  et pourquoi ? Ainsi, la réduction de moitié de la consommation du pays (un objectif fixé par les politiques lors du Grenelle de l’environnement) ne pourra pas se faire en ignorant les énormes pertes d’énergies dans les bâtiments, usines et immeubles qui couvrent le territoire. D’autre part, la tâche est collective, c’est-à-dire qu’elle implique les pouvoir publics, les entreprises et les individus eux-mêmes. Il est donc indispensable, et aujourd’hui possible grâce à la convergence d’Internet et des télécommunications fixes et mobiles, de rendre les bâtiments intelligents, c’est-à-dire contrôlable et maîtrisables du point de vue de leur consommation énergétique. Le bâtiment devient intelligent à partir du moment où sa consommation énergétique est mesurée et contrôlée grâce a des dispositifs de monitoring (capteur, systèmes d’analyses, contrôle des appareils électriques etc…).  Mais quelles en sont les conditions, les étapes, les coûts, le enjeux ?

Un séminaire sur l’habitat intelligent réalisé par ASPROM

Au sommaire du séminaire le mardi 20 mars, Jean Robert Millet, (responsable de la division Energie au CSTB (Centre Scientifique et Technique du Bâtiment) examinera les enjeux et les défis posés par le grenelle de l’environnement à l’objectif 2020 dans la mesure où les bâtiments neufs devront être à « énergie positive ». Le changement est radical puisque non seulement les bâtiments devront moins consommer, mais ils devront aussi contribuer à produire de l’énérgie. Commen les villes vont-elles intégrer cette problématique ?

Ensuite, François Pelegrin, Architecte DPLG élaborera sur les stratégies de ruptures possibles en matière de construction pour garantir les coûts, les délais et la fiabilité des nouveaux systèmes constructifs et obtenir des bâtiments véritablement performants.

Un exemple sera décrit par Sébastien Prévot, responsable du pôle R&D chez Cardonnel Ingelerie autour de l’impact de la RT2012 sur la conception des bâtiments tertiaires et la manière dont ils peuvent améliorer les conditions de travail et la productivité.

Régis Lecussan, directeur de Raycreatis montrera l’apport de valeur d’un logiciel communicant de collaboration entre l’architecte et le thermicien.

Arthur Vinson (Responsable Développement Systèmes Constructifs chez Lafarge) abordera la nouvelle règlementation thermique, ses enjeux et son impact sur les méthodes de travail lors de la conception des bâtiments. Il présentera des systèmes constructifs performants traditionnels et innovants.

Par Olivier Servant, Directeur des Marchés – Saint Gobain habitat France abordera les détails de l’optimisation de l’isolation (sols, murs, plafonds, ponts thermiques) en application de la RT2012 pour le neuf et l’anticipation des règles 2020. Il présentera la maison Saint Gobain Multi-confort en pointant sur les techniques utilisées qui permettent de construire des maisons de la génération 2020. Il abordera aussi les aspects de la rénovation des bâtiments existants.

Olivier Gaignon, délégué général de Ignes abordera la problématique de la « smart home » ou la domotique communicante au service des citoyens. Il traitera du logement résidentiel ou collectif et fera le point sur les outils la manière de les intégrer simplement pour se rapprocher des smart grids, ou smart cities…

Olivier Flechon, Chef du Laboratoire d’Energétique du Bâtiment, CEA INES (Institut National de l’Energie Solaire) présentera la plateforme Incas qui comporte 10 bancs de test pour l’intégration du photovoltaïque dans les bâtiments ou résidences.

En fin de journée, Hervé Mary, Directeur Général du LAN abordera le thème de  La maison numérique : nouveau foyer d’intelligence. Il examinera l’impact du développement des réseaux d’infrastructure numériques fixes et mobiles sur la maison et l’utilisation des appareils électriques et électroniques qui la peuplent.

Au sommaire du séminaire le mercredi 21 mars, Eric Nicolas, Délégué au Gimelec abordera le bâtiment Intelligent et ses technologies. Comment répondent elles aux impératifs de coût, de confort, de services, de sécurité et de flexibilité. Il déterminera le QI du bâtiment intelligent.

Patrick Heinrich, Directeur Total Building Solutions chez Siemens abordera la notion de GTB (gestion technique du bâtiment) et son impact sur l’efficacité énergétique du réseau.. La GTB fédère les différents métiers techniques du bâtiment et l’objectif est de passer d’une GTB de «contrôle/commande» à une hypervision globale de bâtiment, plus particulièrement avec l’arrivée des bâtiments à énergie positive.

Stéphanie RICHE, Chef du Laboratoire Systèmes de Capteurs Multimodaux au CEA-LETI apportera des éléments de réponse sur l’apport des TIC dans l’efficacité énergétique des bâtiments. Elle présentera une plateforme expérimentale baptisée@home pour prototyper /maqueter les réseaux de capteurs et actionneurs hétérogènes.

Axel Buendia, Gérant de SpirOps présentera les outils d’intelligence décisionnelle qui offre une assistance pour économiser l’énergie, améliorer le confort et renforcer la sécurité. D’un rôle d’assistant, ces outils deviennent  un vecteur actif de l’évolution des comportements énergétiques des citoyens.

Olivier Hersent, PDG d’Actility traitera de l’évolution vers IP des bus de terrain du bâtiment. La présentation évoquera les nouvelles contraintes d’ouverture des systèmes d’information du bâtiment, vers les locataires notamment. Il parlera aussi de l’évolution des standards récents comme ETSI M2M et 6LowPAN et de leur impact sur la prise en mais par les utilisateurs.

Yves Aiilerie, Business Development Manager chez Intel France et Renaud Deschamps, Directeur général de Lexmark France, président du SFIB (syndicat des industries des technologies

de l’information) parleront de l’impact des bâtiments à énergie positive sur les utilisateurs. Ils décriront le GIE « Enjeu Energie Positive » auquel participent leurs sociétés qui ont développé l’application POEM (Personal Office Energy Monitor), en fonction sur plusieurs sites pilotes.

Enfin pour clôturer les 2 jours, Eric L’Helguen, DG d’Embix (société commune Altsom-Bouygues) détaillera les solutions de mutualisation et d’optimisation mises en oeuvre au niveau de la « Smart City » et s’appuiera sur l’exemple pratique du premier réseau intelligent de quartier, Issy Grid

Retour de Barcelone MWC 2012 – Fréquences rares et nouvelles architectures

4 mars 2012

Cette année, il a fait beau. Pas de parapluies ou d’imperméables, mais un beau ciel bleu et un temps assez doux. Est-ce un indicateur du temps qu’il fera au cours de cette année mobile ? Les multiples annonces effectuées durant cette manifestation semblent le présager… Mais  je ne suis pas vraiment très sûr que le beau temps soit au rendez vous sur le long terme…

Les fréquences hertziennes, « l’or noir » de l’économie du mobile

Les fréquences hertziennes sont à la base de tout l’écosystème du mobile qui s’était réuni à Barcelone à la fin de ce mois de février 2012 comme il le fait depuis maintenant 7 ans. Les fréquences hertziennes sont à l’économie de la téléphonie et de l’internet mobile ce que le pétrole est au vaste système économique construit autour de l’automobile.  Outre un mode de fonctionnement assez complexe, parfois assez mystérieux, voir magique (ou encore maléfique) pour le grand public,  la grandes particularité des fréquences est d’être une ressource rare. Pourtant, jusqu’à une époque assez récente, on ne se souciait guère ce cet aspect clé… un peu comme le pétrole qu’on a largement gaspillé pendant des années et dont aujourd’hui on voit les réserves s’épuiser.  Les fréquences hertziennes disponibles pour alimenter une demande croissante de services mobiles et transporter des quantités de données en croissance exponentielle sur des territoires toujours plus vastes sont extrêmement rares.

Améliorer l’information sur les fréquences

Pour cela, il faudrait mettre en place une véritable politique de gestion des fréquences, à la fois au niveau de chaque pays et au niveau international, permettant une meilleure information et une plus grande transparence. La récente tentative manquée du rachat de T-Mobile par AT&T aux Etats Unis, qui s’appuyait sur une argumentation plus ou moins crédible autour d’un soit disant manque de fréquences pour couvrir le territoire en 4G, a bien mis en évidence les besoins d’information et de clarté sur les choix et les équations économiques de certains opérateurs. Ainsi AT&T en mettant la main sur un vaste ensemble de fréquences, renforçait et verrouillait son monopole sur l’ensemble du territoire américain.

Lors du MWC 2012, le Dr Hamadoun Touré, Secrétaire Général  de l’ITU (International Télecommunication Union) rappelait le rôle éducatif de l’institution qu’il dirige. « L’attribution des fréquences est un processus complexe qui répond à des règles techniques précises, plus particulièrement parce qu’il faut prévenir les interférences, expliquait-il.  Mais elle répond aussi à de longs processus de négociations entre les acteurs qui participent à leur utilisation.» Pour lui, il est nécessaire de promouvoir une régulation fortement renouvelée qui ne soit plus basée sur la prédominance de la voix mais prenne en compte les nouvelles caractéristiques du monde des télécom ou les données prédominent sur les réseaux mobiles à haut débit. « Nous devons faciliter une meilleure régulation, ajoute-t-il, qui crée de la valeur et de la concurrence et permettre le passage de l’analogique au numérique, dans tous les pays. »

Partage et mutualisation des réseaux.

Dr Hamadoun Touré Sec Gal ITUUne information plus détaillée sur les processus d’allocation des fréquences et de partage des réseaux (fixes et mobiles) semble donc nécessaire. En effet la dernière conférence WRC-12 de Genève en janvier 2012 mettait en place les fondements d’une nouvelle régulation des fréquences après 4 semaines de négociations intensives ou les enjeux comme la mutualisation, l’usage efficace du spectre, le partage des infrastructures ont été longuement discutés. Certains aspects de partage et de mutualisation des réseaux mobiles renvoient directement à la récente polémique inepte autour de la couverture du réseau du nouvel opérateur Free Mobile en France. Des attitudes rétrogrades comme celle de Jean Bernard Levy patron de SFR qui accuse France Télécom d’avoir louée son réseau à Free montrent un évident besoin d’information et d’explication pour le grand public. Une plus grande transparence sur la manière dont sont allouées les fréquences (un bien public rare), sur la manière dont sont partagés (ou pas) les réseaux fixes et mobiles permettront aux utilisateurs de mieux différencier les offres et améliorera la concurrence sur le marché…

La qualité des réseaux mobiles laisse à désirer

L’arrivée de la téléphonie mobile 4G est maintenant une chose acquise, mais la question reste de savoir quand les déploiements commerciaux auront-ils lieu ? Les réseaux sont-ils prêts ? Y aura-t-il suffisamment de fréquences pour répondre aux besoins toujours croissant de transport des données pour chacun, en tous lieux et à toute heure ? Quels investissements ces réseaux nécessitent-ils?  Quelle mutualisation des réseaux faut-il promouvoir pour accroitre l’efficacité des infrastructures et en baisser les coûts ?  Aujourd’hui, quelques pilotes pré-4G, fortement relayés médiatiquement, ont lieu dans plusieurs pays dont la Suède et les Etats Unis, mais dans la réalité, les réseaux 4G ne sont pas encore là et la qualité des réseaux mobiles laisse à désirer. D’autre part, le problème de la voix sur le 4G n’est pas encore résolu et plusieurs solutions étaient présentées à MWC par Fraunhaufer, Qualcomm ou d’autres fabricants de composants.

Une nouvelle vague d’innovation dans les équipements

Au MWC de Barcelone un foisonnement de nouvelles technologies et d’architectures pour l’équipement de ces réseaux était présenté chez les grands équipementiers, et les moins grands. Ainsi parmi les grands, Alcatel-Lucent cherche à reprendre la main en matière d’innovation pour ne pas se laisser désintégrer par les équipementiers chinois très agressifs ou par le géant Coréen Samsung qui a clairement indiqué ses intentions dans ce secteur. Quelques start’up Françaises comme e-Blink se distinguent par des solutions originales.

L’arrivé du 4G, beaucoup plus puissant,  plus souple et plus flexible que le 2G et 3G, pose de nouveaux problèmes d’architecture de réseau qui nécessitent des approches nouvelles.  Il en résulte un regain d’innovation sur la manière de multiplier les cellules pour augmenter la couverture et répondre à la demande exponentielle d’un nombre croissants d’utilisateurs, tout ceci compte tenu du spectre disponible. D’autres développements innovants apparaissent aussi sur la manière de soulager le réseau cellulaire en basculant automatiquement vers les réseaux WiFi. Cependant l’approche femtocells où le particulier dispose d’un boitier à la maison qui relaie le signal 3G et assure le basculement vers le WiFi, semble avoir été abandonnée par les opérateurs qui voient dans ce boitier une menace sur la sécurité de leurs réseaux.

Le rachat de T-Mobile par AT&T opposé par la FCC et la justice américaine

27 novembre 2011

En demandant une enquête administrative, la FCC vient de confirmer son refus d’approuver le rachat de T-Mobile par AT&T pour 39 milliards de dollars, marquant ainsi un coup d’arrêt à la consolidation excessive parmi les opérateurs mobiles aux Etats Unis, dans la mesure où le consommateur américain n’en bénéficierait pas, au contraire.

Procès antitrust et enquête administrative

En mars 2011, AT&T, le deuxième opérateur mobile aux Etats Unis, annonçait sont intention de racheter T-Mobile, filiale américaine de Deutsche Telekom. Le nouvel ensemble crée constituerait le premier opérateur mobile américain avec 43% de part de marché en nombre d’abonnés.  En Aout, après de nombreuses protestations de la part des organismes de consommateurs et de certains membres de l’industrie, le DOJ (Department of Justice) intentait un procès antitrust pour bloquer ce rapprochement sur la base d’un certain nombre d’arguments qui, toutes proportions gardées, attribuent à T-Mobile un rôle à peu près identique à celui que joue Free en France face à l’inertie de l’opérateur historique appuyé sur une position fortement dominante et un comportement très monopolistique.

T-Mobile, un peu comme Free en France…

Faire disparaitre T-Mobile aux US, c’est un peu comme si on tentait de faire disparaitre Free en France… !! Julius Genachowski, Chairman de la FCC, l’agence fédérale de régulation des télécommunications, équivalent de notre Arcep Française, avait déjà indiqué lors de l’action du DOJ « la concurrence est un composant essentiel de l’analyse légale de l’intérêt public de la FCC, et bien que le processus ne soit pas achevé, les éléments dont dispose l’agence lèvent de sérieux doutes sur l’impact de cette transaction sur la concurrence. »  Aujourd’hui, très clairement, en accord sur le principe avec le DOJ, la FCC  laisse entendre qu’elle n’est pas été en mesure d’approuver l’accord passé entre AT&T et Deutsche Telekom parce qu’il réduirait la concurrence de façon significative et conduirait à une réduction massive d’emplois….Un responsable de la FCC indiquait : « Les résultats de l’enquête montrent, et ceci pas en termes vagues, que ce rapprochement résulterait en une perte passive d’emplois aux Etats Unis et à une perte d’investissement… ».

Moins de 50% de chance d’aboutir

La coûteuse campagne de communication entamée par AT&T pour tenter de faire croire l’inverse fait donc long feu. Même si l’action anti-trust du DOJ n’abouti pas (le procès doit se dérouler en février prochain si AT&T décide de s’y opposer), la décision de la FCC d’envoyer AT&T dans une enquête administrative ajoute une nouvelle procédure qui renforce les doutes sur de rapprochement et diminue encore plus les chances d’une conclusion favorable pour AT&T dans les délais. En effet la procédure d’enquête administrative devant un juge demandée par la FCC  s’appliquera après le procès Antitrust si AT&T le gagne, et les termes de l’accord entre AT&T et Deutsche Télékom indiquent que toutes les autorisations nécessaires doivent être obtenues avant la date du 20 septembre 2012, date qui peut bien sur être prorogée par les 2 parties.

Les analystes de l’agence de notation Moody indiquaient récemment qu’il y a maintenant moins de 50% de chance que l’accord soit finalement conclu. Les chances d’AT&T s’amenuisent au fur et à mesure où les opposants déclinent les multiples terrains d’attaque. En effet pour gagner le procès antitrust, le DOJ cherchera à démontrer que le rapprochement diminue significativement la concurrence sur le marché et l’enquête administrative de la FCC attaquera sur un autre plan en cherchant à démonter que le rapprochement va contre l’intérêt public, un argument plus facile à démontrer.

Des risques et des coûts importants

Pour les responsables d’AT&T qui ont déjà repoussé leurs objectifs de conclusion définitive du contrat en juin 2012, la démarche de la FCC est mal venue : « C’est encore un autre exemple que l’agence gouvernementale cherche à s’opposer à des milliards de nouveaux investissements et à la création ne nombreux nouveaux emplois, alors que l’économie américaine a désespérément besoin des deux » disait Larry Solomon, un VP de AT&T dans un communiqué.  Mais AT&T ne peut pas entrer en opposition ouverte avec la FCC et les responsables d’AT&T semblent prêts à se séparer  de plusieurs actifs importants qui pourraient calmer le régulateur et affaiblir les arguments du DOJ.

Cependant, l’impact d’un échec d’AT&T dans sa tentative risque de lui coûter très cher (coût qui sera probablement reporté en augmentation des tarifs chez AT&T..) sachant qu’il vient de provisionner 4 milliards de dollars pour couvrir les éventuelles compensations à payer à Deutsche Télécom en cas de non rachat. Celles-ci seraient estimées au total à près de 6 milliards de dollars…. Pour T-Mobile, qui aurait perdu 850000 clients en un an l’année dernière, les enjeux sont encore plus importants car sa survie pourrait être en jeu…

Sortir de l’impasse

Immédiatement après l’annonce de la démarche de la FCC, les responsables d’AT&T et de Deutsche Telekom ont utilisé une procédure juridique du règlement de la FCC qui leur permet de retirer leur demande de régularisation du rachat de T-Mobile par la FCC (aux conditions du contrat initial) et donc d’éviter que celle-ci ne mette en place son enquête administrative et ne puisse mettre en évidence certains aspects que les responsables d’AT&T ne souhaiteraient pas voir dévoilés au grand public… Leur objectif, selon plusieurs analystes, est d’essayer d’obtenir un accord à l’amiable avec le département de la justice (DOJ) et ensuite de revenir auprès de la FCC pour demander la validation d’un nouvel accord de rachat, sur des bases différentes. Plusieurs rumeurs laissent entendre que AT&T envisagerait de revendre une bonne partie des actifs de T-Mobile obtenus, jusqu’à 40%, ce qui constituerait un véritable démantèlement de la filiale de l’opérateur historique Allemand.

Prochaine audition le 30 novembre

De nouveaux éléments seront probablement dévoilés sur la stratégie adoptée par AT&T lors de la prochaine audition préparatoire du procès anti trust qui sera tenue le 30 novembre prochain par le juge Ellen Huvelle de la cours du District de Columbia (Washington DC).