Archive for the ‘Fréquences Hertziennes’ category

Sigfox, LoRa et les réseaux pour IoT seront-ils un nouveau WiMax?

4 décembre 2015

feature-background

Une bagarre des réseaux sans fils à     bas débits se profile en coulisses de la montée en puissance de l’IoT dans les foyers et dans l’industrie.

Le CES (Consumer Electronic Show) qui se tiendra en janvier 2016 à La Vegas accordera une large place aux objects connectés pour tous les usages, à la maison, dans l’entreprise et même … dans les nuages… Cet ensemble aussi appelé IoT ou Internet of Things est aujourd’hui considéré comme la prochaine vague technologique devant nous envahir et changer une nouvelle fois notre vie, radicalement… ! bientôt…

Qui dit objets connectés dit réseaux, pour permettre de collecter, échanger et utiliser les informations qui circulent entre tous ces objets. Une nouvelle fois, il semble que les opérateurs historiques et leurs concurrents un peu moins historiques se trouvent de nouveau confrontés dans une lutte sans merci pour le contrôle de ces infrastructures qui devront servir et « faire parler » quelques centaines de milliards d’objets. Encore une fois, il est probable que ces escarmouches pour le contrôle des tuyaux jouent un rôle déterminant dans la mise en œuvre effective de ces objets connectés dans notre vie quotidienne, car sans infrastructure facilitatrice, peu coûteuse et pas chère, il n’y aura pas d’Internet des objets.

Un internet sans fil des objets connectés

L’enjeu est maintenant clair. Il s’agit pour un grand nombre d’acteurs d’enclencher, d’accompagner ou de subir une mutation industrielle concernant plusieurs centaines de milliards d’objets potentiellement connectés (ne parlons pas encore de révolution mais elle n’est pas loin)  autour d’un internet mobile similaire à la téléphonie mobile qui a conquis puis bouleversé la vie de quelques milliards d’humains depuis la fin du siècle dernier. On peut donc assez logiquement s’attendre à voir apparaitre les nouveaux Google, Amazon, Salesforce, Facebook et Twitter des objets connectés. Même question pour les infrastructures, verra-ton de nouveaux AT&T, Verizon, Orange (FT), Vodafone, China Mobile émerger ? Quels rapports ces nouvelles sociétés entretiendront-elles avec celles-là ? L’internet des objets sera-t-il un internet à la mode de l’Internet des humains, comme une sorte de sous marque plus ou moins dépendante, ou bien sera-t-il organisé par des nouveaux venus dotés d’outils nouveaux qu’ils contrôlent. Mais nous ne les connaissons pas encore parce qu’ils sont encore sous le radar, et que l’IoT n’a pas encore vraiment décollé? La question mérite d’être posée sachant que la nature humaine déteste les ruptures et que l’économie a plutôt tendance à avancer en regardant derrière.

Les opérateurs mettent les bouchées doubles pour rattraper le temps perdu…

Tout comme pour Internet, et de façon moindre pour la téléphonie sans fil, les grands opérateurs historiques ont été assez lents à réagir face à l’arrivée de l’internet des objets. Occupés par la montée en débit, par la saturation de la bande passante sur les réseaux sans fil, par la nécessité de fibrer les territoires, par les nouveaux services, et retranchés sur leurs positions dominantes parfois mises en coupe par les régulateurs, ils ont certes appris à maitriser l’innovation par la « communication », mais ils ont gardés leurs vieux reflexes séculaires basés sur leur passé monopolistique d’état…Parfois obligés par leur clients et la concurrence (réelle en Europe), Ils sont cependant passé d’une attitude du « block and wait » vers une attitude un peu plus positive du « wait and see »…

Réseaux sur fréquences libres ou payantes… ?

Tout comme au début des années 2000 lorsque que le WiFi montrait timidement le potentiel qu’il représentait, les opérateurs n’ont pas vu l’intérêt des réseaux bas débit, alors que tout le monde parlait de monter en débit, de fibre, d’augmentation de la bande passante, de saturation des réseaux… L’internet des objets donnait surtout l’image d’une tendance à créer des  gadgets  destinés à des bobos technologues férus de réalité virtuelle souhaitant être connectés jusque dans leurs habits. En clair, ils ne percevaient pas la valeur ajoutée de cette approche pour leurs activités et ont continué leur quête de nouvelles fréquences, et augmenter les débits. Ils ont continué la normalisation des réseaux sans fil et leur ouverture au protocole IT,  passant de la 2G à la 2G+, puis à la 3G puis la 3G+ puis au LTE puis à la 4G, bientôt la 4G+ et  préparent maintenant la 5G. Le WiFi a dès le départ été laissé de côté par les opérateurs parce qu’il n’est pas porteur d’un business modèle « operator oriented » et parce qu’il fonctionne sur des fréquences libres, non payantes et ouvertes, même si elles sont réglementées. Le raisonnement a été le même pour les réseaux qui aujourd’hui connectent les objets, car ils opèrent sur des bandes de fréquences restées libres et gratuites qui n’intéressaient plus personnes parce qu’adaptées pour l’analogique (longue portée et bas débits).  Elles ont donc permis à des startups de développer à moindre coût des technologies de réseaux propriétaires,  et les utiliser sans avoir à payer un lourd ticket d’entrée pour s’attribuer ces fréquences.

Bas débit certes… mais aussi basse consommation et longue portée pour redéfinir la connectivité

Une autre caractéristique des réseaux de l’Internet des Objets est d’être capable de fonctionner sur des composants électroniques à très basse consommation. En effet, au fur et à mesure que le secteur se développe apparaissent des objets connectés de type passifs et statiques (en médecine, dans l’automobile, dans les villes intelligentes etc…) construits autour de capteurs  capables d’envoyer sans faillir des petites quantités d’information pendant des années, grâce à une petite pile qu’on ne changera pas parce que l’objet est situé dans un endroit difficilement accessible. C’est sur cette base que s’est développé Sigfox qui explique: «Whilst established providers of connectivity focus on 4G deployment and licensing, we focus on low throughput and subscriptions for objects with little power…. Connecting millions of objects without roaming restrictions and enabled by a very small, extremely low power modem, required our team to “think out of the box””.  Sigfox se définit donc comme un nouveau DNA capable de redéfinir la connectivité…  Le message est clair et il est porteur d’espoir pour toute une industrie plombée par les dinosaures, opérateurs et équipementiers.

L’histoire ne fait que re-commencer…

Le transport de l’information, première grande ligne de force de l’Internet des objets est aujourd’hui assez clairement définie et les opérateurs ont compris un peu plus rapidement leur erreur. Ils vont maintenant jouer sur leurs atouts et sur les faiblesses de l’Internet des objets pour chercher à rattraper le temps perdu. La première faiblesse de l’internet des objets est, dite de façon un peu crue : l’absence de business modèle. Cyril le Floch, CEO de Qovisio, le dernier venu dans le club des réseaux français pour l’Internet des objets indiquait lors d’une récente réunion de la FIRIP à Angers : « Le revenu moyen par objet, l’ARPU sera très faible, proche de Zéro… on ne peut pas envisager de faire payer un abonnement pour connecter un objet… »  Il mentionne alors le Dash bouton d’Amazon et indique qu’il y a encore des centaines d’applications de ce genre à trouver, qui mettront en œuvre des centaines d’objets connectés par foyer… ouvrant vers de nouveaux business modèles disruptifs au mains des marques ou des grands distributeurs ou à défaut financés par les gouvernements, forts de voir leurs villes et leurs territoires devenir « smart ». Les opérateurs, grâce à leurs substantiels revenus récurrents vont, avec des réseaux alternatifs comme LoRa, pouvoir se porter sur des marchés rapidement profitables pour tenter d’empêcher que les marque ne se saisissent de ces nouvelles applications. En parallèle, ils ont déjà entamé une course poursuite technologique pour noyer et dépasser ces réseaux alternatifs. Leur objectif est d’homogénéiser d’ici l’année prochaine les standards haut débit et bas débit autour de la 4 G sur des fréquences attribuées, et au cours d’une marche forcée au sein du 3GPP (l’organisme qui défini et gères les standards cellulaires), permettre à de nouvelles normes LPWAN (les réseaux alternatifs basse puissance pour l’internet des objets) en cours de formalisation, de ne faire plus qu’un seul avec les réseaux cellulaires et les intégrer dans leurs infrastructures avec la 5G.

Orange donnait le ton et ses intentions en adoptant cet automne la technologie LoRa : « After nearly a decade of experience as an operator in machine-to-machine (M2M) communications with its 2G/3G/4G networks, Orange is now broadening its connectivity offer and preparing for the future of the IoT. With this network based on LoRa technology, it is especially useful for connecting sensors in Smart Cities; Orange is also continuing the work on the standardisation of future cell networks (2G/4G)2 for the IoT, which will be operational in 2017 and for 5G by 2022.” Orange indique très clairement qu’avec LoRa, qu’il s’oriente vers les marchés hautement subventionnés des Smart Cities…en attendant la standardisation… et la disparition (espérée) des réseaux alternatifs pour l’Internet des objets… Sigfox, LoRa, Qovisio sont-ils donc voués à une mort certaine…? Nous en reparlerons.

(NDLR: il est interessant de noter que le communiqué de presse de Orange en Anglais n’est pas la traduction exacte du communiqué en Français qui contient moins d’informations)…

Publicités

Retour de Barcelone MWC 2012 – Fréquences rares et nouvelles architectures

4 mars 2012

Cette année, il a fait beau. Pas de parapluies ou d’imperméables, mais un beau ciel bleu et un temps assez doux. Est-ce un indicateur du temps qu’il fera au cours de cette année mobile ? Les multiples annonces effectuées durant cette manifestation semblent le présager… Mais  je ne suis pas vraiment très sûr que le beau temps soit au rendez vous sur le long terme…

Les fréquences hertziennes, « l’or noir » de l’économie du mobile

Les fréquences hertziennes sont à la base de tout l’écosystème du mobile qui s’était réuni à Barcelone à la fin de ce mois de février 2012 comme il le fait depuis maintenant 7 ans. Les fréquences hertziennes sont à l’économie de la téléphonie et de l’internet mobile ce que le pétrole est au vaste système économique construit autour de l’automobile.  Outre un mode de fonctionnement assez complexe, parfois assez mystérieux, voir magique (ou encore maléfique) pour le grand public,  la grandes particularité des fréquences est d’être une ressource rare. Pourtant, jusqu’à une époque assez récente, on ne se souciait guère ce cet aspect clé… un peu comme le pétrole qu’on a largement gaspillé pendant des années et dont aujourd’hui on voit les réserves s’épuiser.  Les fréquences hertziennes disponibles pour alimenter une demande croissante de services mobiles et transporter des quantités de données en croissance exponentielle sur des territoires toujours plus vastes sont extrêmement rares.

Améliorer l’information sur les fréquences

Pour cela, il faudrait mettre en place une véritable politique de gestion des fréquences, à la fois au niveau de chaque pays et au niveau international, permettant une meilleure information et une plus grande transparence. La récente tentative manquée du rachat de T-Mobile par AT&T aux Etats Unis, qui s’appuyait sur une argumentation plus ou moins crédible autour d’un soit disant manque de fréquences pour couvrir le territoire en 4G, a bien mis en évidence les besoins d’information et de clarté sur les choix et les équations économiques de certains opérateurs. Ainsi AT&T en mettant la main sur un vaste ensemble de fréquences, renforçait et verrouillait son monopole sur l’ensemble du territoire américain.

Lors du MWC 2012, le Dr Hamadoun Touré, Secrétaire Général  de l’ITU (International Télecommunication Union) rappelait le rôle éducatif de l’institution qu’il dirige. « L’attribution des fréquences est un processus complexe qui répond à des règles techniques précises, plus particulièrement parce qu’il faut prévenir les interférences, expliquait-il.  Mais elle répond aussi à de longs processus de négociations entre les acteurs qui participent à leur utilisation.» Pour lui, il est nécessaire de promouvoir une régulation fortement renouvelée qui ne soit plus basée sur la prédominance de la voix mais prenne en compte les nouvelles caractéristiques du monde des télécom ou les données prédominent sur les réseaux mobiles à haut débit. « Nous devons faciliter une meilleure régulation, ajoute-t-il, qui crée de la valeur et de la concurrence et permettre le passage de l’analogique au numérique, dans tous les pays. »

Partage et mutualisation des réseaux.

Dr Hamadoun Touré Sec Gal ITUUne information plus détaillée sur les processus d’allocation des fréquences et de partage des réseaux (fixes et mobiles) semble donc nécessaire. En effet la dernière conférence WRC-12 de Genève en janvier 2012 mettait en place les fondements d’une nouvelle régulation des fréquences après 4 semaines de négociations intensives ou les enjeux comme la mutualisation, l’usage efficace du spectre, le partage des infrastructures ont été longuement discutés. Certains aspects de partage et de mutualisation des réseaux mobiles renvoient directement à la récente polémique inepte autour de la couverture du réseau du nouvel opérateur Free Mobile en France. Des attitudes rétrogrades comme celle de Jean Bernard Levy patron de SFR qui accuse France Télécom d’avoir louée son réseau à Free montrent un évident besoin d’information et d’explication pour le grand public. Une plus grande transparence sur la manière dont sont allouées les fréquences (un bien public rare), sur la manière dont sont partagés (ou pas) les réseaux fixes et mobiles permettront aux utilisateurs de mieux différencier les offres et améliorera la concurrence sur le marché…

La qualité des réseaux mobiles laisse à désirer

L’arrivée de la téléphonie mobile 4G est maintenant une chose acquise, mais la question reste de savoir quand les déploiements commerciaux auront-ils lieu ? Les réseaux sont-ils prêts ? Y aura-t-il suffisamment de fréquences pour répondre aux besoins toujours croissant de transport des données pour chacun, en tous lieux et à toute heure ? Quels investissements ces réseaux nécessitent-ils?  Quelle mutualisation des réseaux faut-il promouvoir pour accroitre l’efficacité des infrastructures et en baisser les coûts ?  Aujourd’hui, quelques pilotes pré-4G, fortement relayés médiatiquement, ont lieu dans plusieurs pays dont la Suède et les Etats Unis, mais dans la réalité, les réseaux 4G ne sont pas encore là et la qualité des réseaux mobiles laisse à désirer. D’autre part, le problème de la voix sur le 4G n’est pas encore résolu et plusieurs solutions étaient présentées à MWC par Fraunhaufer, Qualcomm ou d’autres fabricants de composants.

Une nouvelle vague d’innovation dans les équipements

Au MWC de Barcelone un foisonnement de nouvelles technologies et d’architectures pour l’équipement de ces réseaux était présenté chez les grands équipementiers, et les moins grands. Ainsi parmi les grands, Alcatel-Lucent cherche à reprendre la main en matière d’innovation pour ne pas se laisser désintégrer par les équipementiers chinois très agressifs ou par le géant Coréen Samsung qui a clairement indiqué ses intentions dans ce secteur. Quelques start’up Françaises comme e-Blink se distinguent par des solutions originales.

L’arrivé du 4G, beaucoup plus puissant,  plus souple et plus flexible que le 2G et 3G, pose de nouveaux problèmes d’architecture de réseau qui nécessitent des approches nouvelles.  Il en résulte un regain d’innovation sur la manière de multiplier les cellules pour augmenter la couverture et répondre à la demande exponentielle d’un nombre croissants d’utilisateurs, tout ceci compte tenu du spectre disponible. D’autres développements innovants apparaissent aussi sur la manière de soulager le réseau cellulaire en basculant automatiquement vers les réseaux WiFi. Cependant l’approche femtocells où le particulier dispose d’un boitier à la maison qui relaie le signal 3G et assure le basculement vers le WiFi, semble avoir été abandonnée par les opérateurs qui voient dans ce boitier une menace sur la sécurité de leurs réseaux.

Le rachat de T-Mobile par AT&T opposé par la FCC et la justice américaine

27 novembre 2011

En demandant une enquête administrative, la FCC vient de confirmer son refus d’approuver le rachat de T-Mobile par AT&T pour 39 milliards de dollars, marquant ainsi un coup d’arrêt à la consolidation excessive parmi les opérateurs mobiles aux Etats Unis, dans la mesure où le consommateur américain n’en bénéficierait pas, au contraire.

Procès antitrust et enquête administrative

En mars 2011, AT&T, le deuxième opérateur mobile aux Etats Unis, annonçait sont intention de racheter T-Mobile, filiale américaine de Deutsche Telekom. Le nouvel ensemble crée constituerait le premier opérateur mobile américain avec 43% de part de marché en nombre d’abonnés.  En Aout, après de nombreuses protestations de la part des organismes de consommateurs et de certains membres de l’industrie, le DOJ (Department of Justice) intentait un procès antitrust pour bloquer ce rapprochement sur la base d’un certain nombre d’arguments qui, toutes proportions gardées, attribuent à T-Mobile un rôle à peu près identique à celui que joue Free en France face à l’inertie de l’opérateur historique appuyé sur une position fortement dominante et un comportement très monopolistique.

T-Mobile, un peu comme Free en France…

Faire disparaitre T-Mobile aux US, c’est un peu comme si on tentait de faire disparaitre Free en France… !! Julius Genachowski, Chairman de la FCC, l’agence fédérale de régulation des télécommunications, équivalent de notre Arcep Française, avait déjà indiqué lors de l’action du DOJ « la concurrence est un composant essentiel de l’analyse légale de l’intérêt public de la FCC, et bien que le processus ne soit pas achevé, les éléments dont dispose l’agence lèvent de sérieux doutes sur l’impact de cette transaction sur la concurrence. »  Aujourd’hui, très clairement, en accord sur le principe avec le DOJ, la FCC  laisse entendre qu’elle n’est pas été en mesure d’approuver l’accord passé entre AT&T et Deutsche Telekom parce qu’il réduirait la concurrence de façon significative et conduirait à une réduction massive d’emplois….Un responsable de la FCC indiquait : « Les résultats de l’enquête montrent, et ceci pas en termes vagues, que ce rapprochement résulterait en une perte passive d’emplois aux Etats Unis et à une perte d’investissement… ».

Moins de 50% de chance d’aboutir

La coûteuse campagne de communication entamée par AT&T pour tenter de faire croire l’inverse fait donc long feu. Même si l’action anti-trust du DOJ n’abouti pas (le procès doit se dérouler en février prochain si AT&T décide de s’y opposer), la décision de la FCC d’envoyer AT&T dans une enquête administrative ajoute une nouvelle procédure qui renforce les doutes sur de rapprochement et diminue encore plus les chances d’une conclusion favorable pour AT&T dans les délais. En effet la procédure d’enquête administrative devant un juge demandée par la FCC  s’appliquera après le procès Antitrust si AT&T le gagne, et les termes de l’accord entre AT&T et Deutsche Télékom indiquent que toutes les autorisations nécessaires doivent être obtenues avant la date du 20 septembre 2012, date qui peut bien sur être prorogée par les 2 parties.

Les analystes de l’agence de notation Moody indiquaient récemment qu’il y a maintenant moins de 50% de chance que l’accord soit finalement conclu. Les chances d’AT&T s’amenuisent au fur et à mesure où les opposants déclinent les multiples terrains d’attaque. En effet pour gagner le procès antitrust, le DOJ cherchera à démontrer que le rapprochement diminue significativement la concurrence sur le marché et l’enquête administrative de la FCC attaquera sur un autre plan en cherchant à démonter que le rapprochement va contre l’intérêt public, un argument plus facile à démontrer.

Des risques et des coûts importants

Pour les responsables d’AT&T qui ont déjà repoussé leurs objectifs de conclusion définitive du contrat en juin 2012, la démarche de la FCC est mal venue : « C’est encore un autre exemple que l’agence gouvernementale cherche à s’opposer à des milliards de nouveaux investissements et à la création ne nombreux nouveaux emplois, alors que l’économie américaine a désespérément besoin des deux » disait Larry Solomon, un VP de AT&T dans un communiqué.  Mais AT&T ne peut pas entrer en opposition ouverte avec la FCC et les responsables d’AT&T semblent prêts à se séparer  de plusieurs actifs importants qui pourraient calmer le régulateur et affaiblir les arguments du DOJ.

Cependant, l’impact d’un échec d’AT&T dans sa tentative risque de lui coûter très cher (coût qui sera probablement reporté en augmentation des tarifs chez AT&T..) sachant qu’il vient de provisionner 4 milliards de dollars pour couvrir les éventuelles compensations à payer à Deutsche Télécom en cas de non rachat. Celles-ci seraient estimées au total à près de 6 milliards de dollars…. Pour T-Mobile, qui aurait perdu 850000 clients en un an l’année dernière, les enjeux sont encore plus importants car sa survie pourrait être en jeu…

Sortir de l’impasse

Immédiatement après l’annonce de la démarche de la FCC, les responsables d’AT&T et de Deutsche Telekom ont utilisé une procédure juridique du règlement de la FCC qui leur permet de retirer leur demande de régularisation du rachat de T-Mobile par la FCC (aux conditions du contrat initial) et donc d’éviter que celle-ci ne mette en place son enquête administrative et ne puisse mettre en évidence certains aspects que les responsables d’AT&T ne souhaiteraient pas voir dévoilés au grand public… Leur objectif, selon plusieurs analystes, est d’essayer d’obtenir un accord à l’amiable avec le département de la justice (DOJ) et ensuite de revenir auprès de la FCC pour demander la validation d’un nouvel accord de rachat, sur des bases différentes. Plusieurs rumeurs laissent entendre que AT&T envisagerait de revendre une bonne partie des actifs de T-Mobile obtenus, jusqu’à 40%, ce qui constituerait un véritable démantèlement de la filiale de l’opérateur historique Allemand.

Prochaine audition le 30 novembre

De nouveaux éléments seront probablement dévoilés sur la stratégie adoptée par AT&T lors de la prochaine audition préparatoire du procès anti trust qui sera tenue le 30 novembre prochain par le juge Ellen Huvelle de la cours du District de Columbia (Washington DC).

AT&T et T-Mobile dans le collimateur de la FCC et du congrès Américain

11 août 2011

Depuis l’annonce du rachat de T-Mobile par AT&T pour 39 milliards de dollars, l’opération n’a cessé de susciter des remarques, des remous, puis une opposition de plus en plus active de la part des consommateurs, d’une bonne partie de l’industrie et maintenant de l’administration et de l’agence de régulation américaine. En effet, reconnaissant ouvertement que ce rapprochement crée pas mal de problèmes, la FCC a décidé d’aborder ce dossier de façon plus large et de le traiter conjointement avec un autre dossier concernant AT&T, celui du rachat des fréquences 700 MHz que Qualcomm destinait à FLO TV, tentative avortée de créer un système de télévision mobile propriétaire.

Une lettre datée du  8 aout émise par le Wireless Telecom Bureau de la FCC mentionne que les deux affaires posent la question de l’accumulation de spectre de fréquence par l’opérateur sur tout le pays, avec beaucoup de zones de recouvrement.  Le premier résultat de cette lettre est de repousser au-delà de 180 jours le délai accordé par l’administration américaine pour donner son avis sur la proposition de transaction avec T-Mobile. Beaucoup en effet suspectent que l’opérateur ne cherche à reprendre une position de monopole sur un marché déjà fortement concentré. Il invoquait en effet le manque de fréquences pour racheter T-Mobile alors qu’il venait de racheter du spectre « en or » dans les bandes 700 Mhz à Qualcomm pour quelques 2 milliards de dollars en décembre dernier. Parallèlement le réseau de l’opérateur, quasiment vétuste, de mauvaise qualité aussi bien pour le fixe que le mobile et notoirement insuffisant pour supporter le trafic de ses consommateurs n’est modernisé qu’à travers des investissements faits au compte goutte et bruyamment médiatisés. Donc d’un côté, AT&T sort $41 milliards pour transformer silencieusement sa position  dominante en quasi monopole et de l’autre il n’investi pas suffisamment pour améliorer son réseau. Cette attitude n’est pas celle d’un industriel, mais tout simplement celle d’un spéculateur. Gageons que nos opérateurs nationaux ne se comportent pas de la même façon dans le problème de la fibre pour le haut débit, fixe ou mobile.

Les intéressés sont offusqués de la réaction de la FCC  

Immédiatement après la lettre de la FCC, les responsables indignés d’AT&T, Qualcomm et de Deutsche Telecom ont répondu sans vraiment apporter d’arguments contradictoires nouveaux.  Pour Deutsche Telecom, considérer les deux opérations ensemble serait identique à mélanger des « pommes (Apples) » et des « oranges ». Voila une image qui ne manque pas de subtilité quant on connait « la relation amoureuse » qui lie notre opérateur historique national et le constructeur de Cupertino… ! « Ce sont deux transactions entièrement distinctes, qui adressent différentes entités, différents publics, des termes différents et des intérêts publics différents. Il n’y a aucune base juridique ou politique sérieuse pour consolider les 2 opérations » explique Deutsche Telekom dans sa réponse à la FCC.  Dean Brenner Vice président des affaires institutionnelles de Qualcomm précise que « les bénéfices pour le public de cette vente s’affirment par eux même et ne sont absolument pas liés au rapprochement de AT&T et T-Mobile. » Il précise, et on imagine bien les trémolos offusqués  dans sa voix : « Le deal avec Qualcomm permettra de réutiliser du spectre 700Mhz découplé et non utilisé pour du haut débit mobile, et de cette façon facilitant l’Amérique à résoudre son problème de manque de fréquence et permettant à la FCC d’atteindre son but de réallouer 300 Mhz de fréquences au très haut débit mobile dans les 5 prochaines années ».

Il mentionne enfin que cet argent servirait à Qualcomm d’investir pour développer une nouvelle technologie spectralement plus efficace pour accélérer les transferts et permettre les premiers développements aux Etats Unis « stimulant ainsi la croissance économique des Etats Unis ainsi que la création d’emploi et améliorant la position de leadership des Etats Unis dans le sans fil.. » Le tout sans sourciller… ! Quant à AT&T, il s’offrait un communiqué langue de bois digne des déclarations du soviet suprême : « Nous pensons que la transaction avec Qualcomm a ses propres mérites. Nous nous félicitons que la commission ait rejeté les demande de consolider officiellement les deux accords et a expressément maintenu la possibilité que notre demande pour Qualcomm soit traitée avant celle de T-Mobile. Nous sommes confiants que la FCC approuvera les transferts de licences comme étant conforme à l’intérêt public. »

Consommateurs et industrie s’y opposent

Coté consommateurs, la perception est toute différente. Plusieurs associations de consommateurs avaient manifesté des réserves le jour de l’annonce du rapprochement avec T-Mobile à côté de nombreuses interrogations et des sourcils froncés d’une partie de la presse. Une coalition de groupes défendant les intérêts du consommateur s’est constituée autour de plusieurs organismes :  Free Press, Media Access Project, Public Knowledge, Consumers Union et the Open Technology Initiative of the New America Foundation, rejoint ensuite par plusieurs opérateurs sans fil locaux ou régionaux comme Cincinnati Bell Wireless, MetroPCS Communications, NTELOS, the Rural Cellular Association, the Rural Telecommunications Group et puis par Sprint Nextel dont le CEO, Dan Hesse indiquait que cette acquisition serait un « désastre absolu pour les consommateurs et l’économie américaine et conduira à encore plus de régulation ».

Le 27 avril, ils envoyaient une lettre à Julius Genachowski, Chairman de la FCC indiquant «  si le transfert de licence de Qualcomm et le rapprochement avec T-Mobile sont approuvés, il donneront encore plus de puissance a un opérateur sans fil déjà dominant pour imposer son contrôle sur les terminaux, le réseaux de transport et les consommateurs pour asphyxier complètement la concurrence. »

Opposition grandissante des politiques

Le dernier volet de l’opposition à cette opération est une opposition grandissante au sein du congrès. Même si celui-ci n’a pas à juger de l’opportunité de ce rapprochement, l’avis de certains politiciens à Washington est très écouté et AT&T n’a pas négligé d’intensifier son lobbying en déployant quelques millions de dollars auprès des Représentants et Sénateurs ou d’organismes qui leurs sont directement liés. A remarquer que les mécanismes du lobbying américain sont en général assez connus, cette activité étant quasiment officielle. Mais en France le lobbying n’existe pas officiellement, ses mécanismes sont donc assez obscures et difficiles à mettre à jour, certaines sociétés Françaises sont devenues maîtres en la matière.

Pourtant, le Sénateur Herb Kohl, Chairman du sous comité qui au Sénat examine les affaires anti-trust, avait provoqué une audition des responsables d’AT&T et de T-Mobile en mai dernier pour permettre aux protagonistes d’expliquer les raisons de ce rapprochement. Apparemment peu satisfait des conclusions de cette audition, il envoyait le 20 juillet dernier une lettre de 7 pages à Julius Genachowski Chairman de la FCC et au Procureur Général Eric Holder où il indique les nombreux points pour lesquels le rachat de T-Mobile par AT&T serait néfaste. « J’ai conclu que cette acquisition, explique le Sénateur,  si elle est autorisée, créerait de nombreux dommages à la concurrence et aux consommateurs, serait contraire aux lois antitrust et contraire à l’intérêt public, et devrait donc être bloquée par vos agences. »  La réaction de la FCC ne s’est donc pas faite attendre longtemps et pourrait conduire à une nouvelle forme de 1984 (qui avait vu le démantèlement du monopole d’AT&T). A noter que cette tendance à la reconstitution de monopoles à partir d’anciens monopoles d’Etats est un phénomène industriel très fréquent qui s’accélère avec la mondialisation. Elle mériterait d’être étudiée avec plus de précisions dans le secteur des télécoms, aussi bien aux Etats Unis qu’en Europe.

Le Mobile 2.0 à Paris, manifestation à ne pas rater

2 mars 2011

Une des soirées les plus sympas du Mobile World Congres 2011 s’est tenu dans un petit bar à tapas dont j’ai déjà oublié le nom, tenu par des Français et perdu dans un endroit pas possible près de l’Arc de Triomphe (normal). Elle était organisée par Christophe Romei, fondateur de Memodia, organisateur de la manifestation Le Mobile 2.0 qui se déroulera le mardi 8 et mercredi 9 mars au Cent Quatre dans le 19ème à Paris

J’avais été invité à la dernière minute par Laurent Tonnelier, CEO de Mobilehead, société très innovante dans le secteur des NFC et Tags optiques, que j’avais rencontré quelques années auparavant aux Etats Unis alors qu’il ramait sur son projet. Plusieurs personnalités du Mobile Français étaient là. Non pas forcément des grands pontes, mais des gens créatifs et innovants, des développeurs sur mobile et quelques CEO comme  Aude Perdriel Vaissière de Loodies ou Philippe de Wost qui vient de vendre Imsense Ldt, la société Anglaise qu’il dirigeait, à Apple, tout simplement.

Christophe Romei, comme montre la photo, a fait un petit speech improvisé perché sur une chaise pour convier tout le monde à le Mobile 2.0 . A côté d’un espace d’exposition, des conférences seront faites par un très beau panel d’une centaine d’intervenants, plutôt opérationnels et plus proches du terrain que des PDG ou des directeurs généraux. Ils viennent de quelques unes des sociétés les plus en vues dans la mobilité comme Yahoo! France, SFR Régie, Zinio, Nokia, Forrester Research, FullSIX, MRM, Backelite, Navteq, Bell & Ross, Lagardère Active, HTC, Deezer, Microsoft, Voyages SNCF, France 24, Pure Agency, Orange, Vente Privée, Laser, Médiamétrie, PayPal, eBay, Skype, Zong, …

Les conférences aborderont des thèmes tels que:

– les retours d’expériences de grands médias présents sur mobile

– les offres médias digitales d’aujourd’hui et de demain

– le marché émergeant des tablettes

– les chiffres de la mesure d’audience de l’internet mobile français

– l’innovation des business modèles dans la convergence des écrans

– les marchés européens et américains des services mobiles, bilans chiffrés et perspectives

Cette cinquième édition de cette manifestation sera un rendez-vous privilégié pour tous les acteurs du marché qui peuvent ainsi s’informer sur les dernières tendances du marché, trouver des réponses à leurs interrogations, analyser les actions majeures menées par les pionniers du secteur, découvrir les start-up du moment, écouter plus d’une centaine d’experts et bien sur échanger avec l’ensemble des participants, le tout dans une ambiance conviviale.

Le programme complet des conférences est disponible à l’adresse : www.lemobile20.fr/2011/programme,
mais aussi sur l’application iPhone “LeMobile” ou encore via le site mobile de l’évènement : m.lemobile20.fr.

Très haut débit sans fil pour tous, le « SuperWifi » annoncé aux Etats Unis..

28 septembre 2010

La FCC américaine vient de libérer un ensemble de fréquences hertziennes inutilisées dans les interstices des chaines de télévision analogiques afin de les ouvrir à une utilisation sans licence préalable par des « terminaux mobiles » capables de télécharger des informations à très haut débit (80 Mbps et plus). Immédiatement appelé SuperWiFi parce que ces fréquences basses peuvent transporter des données à très haute vitesse sur des grandes distances (plusieurs kilomètres) à partir d’émetteurs de faible puissance, ce réseau couterait beaucoup moins cher à installer que les réseaux cellulaires 3G ou LTE, ne parlons pas des réseaux de fibre qui se cantonnent dans les zones denses aujourd’hui. Il serait plus puissant, capable de mieux pénétrer dans les bâtiments et serait ouvert à tous : particuliers, municipalités, communautés diverses, opérateurs… sans nécessité de posséder ou d’acheter une licence d’exploitation.

Inspiré du mode de fonctionnement du WiFi (qui rappelons le fut interdit à ses début pendant quelques temps en France), il serait basé sur des technologies nouvelles plus performantes, plus efficaces et moins chères dont les développements semblent déjà avancés aux Etats Unis… Le Chairman de la FCC, Julius Genachowski indiquait « Cette décision ouvre une nouvelle ère pour l’innovation technologique américaine. Nous savons d’expérience que ce spectre non licencié peut susciter des innovations énormément utiles. Par exemple, il y a des années, personne n’imaginait la manière d’utiliser du spectre de basse qualité inutilisé qualifié de « bande pourrie » lorsque la FCC a décidé de le libérer sans licence.  Le résultat fut une vague de technologies nouvelles… le Wifi qui est aujourd’hui une industrie de plusieurs milliards de dollars et une partie essentielle de l’écosystème de la mobilité ». Cette nouvelle approche permettrait de réaliser le très haut débit pour tous sans la fibre.

Un mouvement entamé il y a dejà 3 ans

Mais chaque fois que de nouvelles fréquences hertziennes sont libérées et destinées à être proposées au public pour créer de nouvelles infrastructures qui ne tombent pas à priori dans l’escarcelle des opérateurs en place, les boucliers se lèvent, surtout aux Etats Unis ou les lobbies des opérateurs sont extrêmement puissants et efficaces pour protéger leurs monopôles. Le WiFi en son temps a pris tout le monde par surprise et les opérateurs ont eu beaucoup de mal à le museler. Aujourd’hui, ils ne veulent pas se laisser prendre de nouveau avec ce super Wifi. Chacun sait en effet que ces monopoles historiques s’appuient sur les infrastructures pour verrouiller les consommateurs « ad vitam » chez le même opérateur, jusqu’à ce qu’une nouvelle technologie arrive, qu’ils refusent dans un premier temps et essaient de récupérer et de contrôler, ou même de tuer dans un deuxième temps (cf le WiMax).

Ce mouvement se fait sous le regard plus ou moins bienveillant des régulateurs (FCC, ARCEP, Ofcom, ORECE,  etc…) dont le rôle est de faciliter le développement des infrastructures et des usages sur des marchés réputés ouverts. C’est une des raisons pour lesquelles les opérateurs sont particulièrement averses à toute innovation technologique… (sauf au niveau du discours)… et c’est aussi la raison pourquoi ils voient d’un très mauvais œil l’annonce de ce « superWiFi » que tout le monde découvre aujourd’hui mais qui se prépare aux Etats Unis depuis déjà plusieurs années sous le terme de « White Spaces » ou encore « Fréquences Blanches ». Il est donc tout naturel que la FCC, dirigée de façon intelligente, s’oriente vers une mise à disposition non licenciée de ces fréquences, étant quasiment certaine que l’innovation viendra avec.

Que sont ces « bandes blanches » ?

A la fin de 2006 et au début 2007, plusieurs ingénieurs de sociétés de la Silicon Valley comme Google et autres grands de l’informatique ou d’internet se réunissaient pour discuter de ces fameuses fréquences blanches et finalement créent une alliance appelée « White Space Coalition » regroupant plusieurs poids lourds comme Dell, HP, Microsoft, Google, Intel, Philips, Earthlink et Samsung. L’objectif clairement affiché est de développer une technologie sans fil qui utilise des petites portions de bandes de fréquences de la Télévision Analogique dans les zones 54 – 698 MHz, pour transporter des données sans fil à très haut débit (80 mbps et au dessus). Les bandes de fréquences visées sont appelées « bandes blanches » ou « fréquences blanches » parce que ce sont des bandes inutilisées qui ont été mises en place pour éviter les interférences entre les canaux de télévision analogique (aujourd’hui en cours de disparition).

L’un des principaux problèmes de l’utilisation de ces fréquences blanches est posé par les interférences qui peuvent se produire avec les canaux de télévision existants. En octobre 2008, Google tenait une conférence sur ce thème dans ses locaux à Mountain View montrant l’intérêt de nouvelles technologies comme les radios cognitives qui permettent une gestion dynamique et flexible à basse puissance des fréquences vacantes.

L’une des difficultés de l’utilisation de ces fréquences blanche est qu’elles forment un véritable « gruyère » parce que ce sont des petites bandes de fréquence qui se trouvent entre des canaux de TV affectés à des endroits différents selon les régions. La technologie doit donc déterminer avec précision les canaux pré-existants et éviter les interférences locales. Le 5 novembre suivant, la FCC approuvait à l’unanimité l’idée de l’utilisation non licenciée des fréquences blanches, accompagnée d’un ensemble de recommandations sur la manière dont les appareils (TV Band Devices) doivent fonctionner pour éviter les interférences locales.

L’argument des interférences…

A peine la décision de la FCC était-elle prise en novembre 2008 que la NAB (National Association of Broadcasters) réagissait associée à l’Association for Maximum Service Télévision (MSTV) demandant à la FCC de revenir sur sa décision. Plainte était déposé devant la court d’Appel du District de Columbia mentionnant que l’utilisation des Fréquences Blanches conduirait à dégrader les services de Télévision. D’autres arguments étaient cités concernant les interférences possibles avec les fréquences audio utilisées par les micros dans les systèmes de sonorisation publique. La chanteuse américaine Dolly Parton, réquisitionnée par la NAB pour se faire l’avocat de la protection des fréquences blanches, perdait la bataille.

Microsoft, impliqué depuis le début dans ces bandes blanches, a mis en œuvre un prototype de réseau « superWifi » sur son vaste campus de Redmond et a testé les interférences possibles avec les dispositifs radio en place. Les ingénieurs de Microsoft ont développé des outils permettant d’identifier la présence de canaux audio utilisés au fur et à mesure que le terminal se déplace et d’éviter les interférences. L’installation mise en place avec seulement 2 stations a permis de couvrir la totalité du campus de Microsoft qui fait 250 hectares pour près de 200 bâtiments. Pour l’instant ce réseau est un prototype de laboratoire et Microsoft n’a pas indiqué son intention d’en faire un produit.

Les fréquences, un bien public…

Les fréquences hertziennes sont à la base des infrastructures de communication sans fil qui se développent depuis une bonne quinzaine d’années, qui sont aujourd’hui utilisées quotidiennement par des milliards d’utilisateurs pour téléphoner ou pour accéder à Internet sans fil, surtout depuis que les smartphones et les tablettes numériques se sont développés.

Historiquement, l’affectation des fréquences les plus attractives (dites en or) s’est faite au profit des technologies existantes à l’époque qui sont aujourd’hui quelque peu obsolètes et plutôt inefficaces en termes d’utilisation du spectre. Ces technologies, la télévision, la radio et la téléphonie cellulaire sont mises en oeuvre par des sociétés historiques qui détiennent des monopoles (de fait ou constitués) sur lesquelles elles sont assises confortablement grâce à la possession de ces fréquences. On a bien vu les difficultés qu’a soulevées l’attribution de la 4ème fréquence de téléphonie sans fil en France.

Que va faire l’ARCEP ?

La libération de nouvelles fréquences suscite toujours des ambitions chez des nouveaux entrants potentiels et des craintes des sociétés en place qui voient leur « legacy » devenir un véritable boulet s’ils n’investissent pas rapidement dans ces nouvelles technologies et ne répondent pas proprement aux nouveaux besoins qu’elles satisfont.  Ils cherchent donc à contrôler étroitement les affectations de nouvelles fréquences et l’innovation technologique. C’est probablement ce qui va se passer avec ce nouveau SuperWiFi.

C’est justement dans cette mesure que ce nouveau superWiFi est particulièrement intéressant parce qu’il élargira de façon importante la portée et la puissance du WiFi et ne sera pas, à priori, la propriété exclusive des opérateurs en place. Alors que les réseaux LTE représentent un investissement important pour les opérateurs, mais ne couvriront pas suffisamment de territoire avant une bonne quinzaine d’année à cause du lancinant problème des zones moins denses ou rurales dans lesquelles ils ne veulent pas investir, alors que les réseaux 3G sont surchargés et menacent de crouler sous la demande au fur et à mesure que les smartphones et les tablettes arrivent en masse sur le marché, le superWifi semble une opportunité incontournable.

L’ARCEP connait parfaitement ces bandes de « fréquences blanches ». L’Europe aussi, mais rien ne bouge encore de ce côté-là. Resteront-elles frileusement sur des positions prises? Par exemple en matière de WiMax,  interdire le roaming sous prétexte de prétendues interférences (et éviter une levée de bouclier de la part des opérateurs).  Ou bien prendront-elles rapidement des positions innovantes qui lèveront interdits et incertitudes sur ce superWiFi et permettrons à des développeurs et des industriels Français de se lancer dans cette nouvelle aventure… ?

Google et Verizon règlent son compte à la Neutralité du Net

9 août 2010

D’un côté le vieux monde des opérateurs et des ayants droit, de l’autre le nouveau monde du Net de la dématérialisation, de la consommation sans intermédiaire. La ligne de démarcation entre les deux s’appelle aujourd’hui « neutralité du Net ». Une tentative à l’initiative de la FCC  pour « concilier » ces deux mondes a échoué la semaine dernière aux Etats Unis alors que Google et Verizon se sont finalement engagés unilatéralement dans une proposition commune, qui fait froncer quelques sourcils. Les deux géants ont en effet signé ce lundi une proposition commune de cadre législatif, ni plus ni moins, sur la manière de gérer les priorités de circulation sur le Net en fonction des types de données. Il est assez peu probable que la FCC se réjouisse de cette proposition tramée à son nez et à sa barbe par les deux sociétés.

Confrontation entre deux visions de la société industrielle

Depuis plusieurs mois,  voire quelques années, le torchon brule entre ces deux mondes qui semblent participer d’une même évolution, mais chacun appuyé sur des stratégies, des organisations, des fonctionnements, des comportements et surtout des business modèles différents. Deux mondes industriels sont aujourd’hui en pleine confrontation  autour d’Internet pour asseoir et mettre en œuvre chacun une nouvelle vision de la société industrielle. L’une basée sur un modèle ancien, cherche à digérer et intégrer Internet,  l’autre, née d’Internet  où elle trouve ses racines, est en création autour de quelques modèles très dynamiques, mais encore fragiles. Sur la base de ce qui s’est passé au cours de ces 10 dernières années autour d’Internet, c’est aux Etats Unis que se développe cette confrontation et c’est probablement aux Etats Unis que s’en dérouleront les principales étapes. Elle est aujourd’hui cristallisée  autour de la neutralité du Net mais elle cache des enjeux à court et long terme bien plus importants.

La Neutralité du Net, un symbole plus qu’une définition

Si la Neutralité du Net est aujourd’hui un thème qui compte un peu plus aux yeux du grand public en général peu capable de se mobiliser sur des thèmes complexes, elle pourrait  devenir le symbole  de cette confrontation/mutation qui oppose maintenant l’économie traditionnelle et l’économie Internet, encore plus que jamais alors que la crise commence à s’estomper. Mais comme chaque fois que l’on aborde les symboles, les manipulations et récupérations en tous genres sont faciles… Il semble donc pour l’instant inutile de définir la neutralité du net et de discuter pour savoir qui la respecte ou pas. En effet, elle se crée et évolue au fur et à mesure que se déroule la confrontation, tout comme une ligne de faille entre deux plaques tectoniques se modifie au fur et à mesure que ces deux plaques s’imbriquent l’une dans l’autre. Il vaut mieux pour l’instant s’intéresser aux plaques tectoniques et aux mouvements qu’elles opèrent.

Un enjeu de taille

A la fin du mois de juin dernier, la FCC américaine annonçait avoir suscité une discussion entre les lobbyistes des 2 opérateurs américains AT&T et Verizon, de Google, de Skype, rejoints par quelques autres acteurs comme Comcast, Microsoft, Intel, etc… . L’objectif, annoncé par Julius Genachowski , Chairman du régulateur, étant d’essayer de trouver un accord qui conduise à une sorte de reconnaissance juridique de la Neutralité du Net, en d’autre termes de mettre en place un cadre qui décrive les grandes lignes de la gestion du trafic des données sur les réseaux. L’enjeu est de taille puisqu’il s’agit, ni plus ni moins, de jeter les bases des fondations du fonctionnement  de l’économie sur Internet aux Etats Unis, cadre qui risque d’être adopté dans le monde entier par la suite.

Un obstacle sur l’agenda de la FCC

En octobre dernier, dans un document préparatoire de plus de 100 pages, la FCC définissait un certain nombre de règles se posant comme les éléments constitutifs de la Neutralité des réseaux. Ce document était mis en discussion public jusqu’au 26 avril 2010.  Mais avril, la FCC voyait son agenda remis en question et ses efforts réduits à néant par une décision de la cours d’Appel du District de Columbia qui rejetait une décision de la FCC, prise en 2008, condamnant  Comcast pour avoir entravé la circulation des échanges de données pair à pair sur son réseau. La cours d’Appel affirme purement et simplement que la FCC a outrepassé ses droit en s’occupant de circulation des données sur les réseaux sachant que les réseaux haut débit son classés « services d’information » qui ne relèvent pas de la régulation sur la téléphonie . Ne comptant pas faire appel ni demander au congrès de lui attribuer les compétences, la solution restante pour la FCC semblait être de reclassifier le haut débit comme des services téléphoniques, une démarche longue et risquée qui n’était pas envisageable tel quel. Appuyé par son conseil juridique, le patron de la FCC adoptait alors une autre stratégie, « une troisième voix » consistant à envisager une reclassification partielle (quelques mesures assez techniques) permettant à la FCC de finalement s’occuper du haut débit et pousser les principaux acteurs à négocier un accord qui puisse ensuite faire jurisprudence, un compromis entre les dispositions du Communication Act de 1996 et la décision Comcast. Mais il semble qu’il y ait eu quelques dérapages imprévus.

La troisième voix, stratégie de dernière heure…

Les négociations commencèrent donc fin juin dans la joie et la bonne humeur, saluées par une presse enthousiaste louant la troisième voix. Mais déjà, les voix de la CTIA (ancienne Cable and Television Industry Assciation devenue The wireless Association) dirigée par Steve Largent, un ancien Quarter Back de Football Américain, et de quelques organismes liés à la protection du consommateur, s’élevaient pour des raisons complètement opposées. Le premier cherchant à protéger les intérêts des fabricants averses à toute ingérence du gouvernement dans les affaires économiques (on a vu ce que cela a donné dans le secteur de la finance.. !) et les autres comme Free Press, New America Foundation, Media Access Project et Public Knowledge qui demandent que le public et les consommateurs soient impliqués dans ces négociations qui se déroulent à huit clos et pour qui elles apparaissent comme un coup de canif dans l’agenda de transparence émis par Obama lors de sa campagne présidentielle. Du côté du Congrès, le support démocrate de l’action de la FCC semblait de son côté s’effriter de façon sensible à travers plusieurs documents exprimant une sourde opposition à l’action de la FCC. A noter que les lobbies des opérateurs et de l’industrie dépensent des centaines de millions par an dans les couloirs du Congrès pour « éduquer les Représentants et les Sénateurs ».

Dérapage sur la troisième voix..

Début Aout, après un silence radio de près d’un mois durant lequel plusieurs réunions ont eu lieu, apparaissaient les premiers signes de difficultés, d’une part liées au caractère secret des discussions et ensuite à l’impossibilité d’atteindre un consensus entre les différents acteurs autour du cadre défini par la FCC. Très vite les rumeurs d’un accord bilatéral entre Google et Verizon laissaient entendre que la FCC perdait le contrôle des négociations et que Google, dès qu’il s’agit de parler gros sous,semble   rapidement oublier toutes les belles paroles prononcées par Eric Schmidt son CEO, sur la neutralité des réseaux et sur la manière dont Google compte « organiser toute l’information du monde » sans comportements « démoniaques » (do-no-evil).

Les réseaux sans fils ne seront pas concernés

Eric Schmidt précisait les choses lors d’une conférence au Lac Tahoe (à laquelle assistait Neelie Kroes). « Les gens sont perdus à propos de la Net Neutralité….Je veux être certain que tout le monde comprends que qu’on entend par là. Nous voulons dire que pour un certain type de données, comme la vidéo, vous ne discriminez pas sur la vidéo d’une personne en faveur d’une autre. Mais c’est OK pour discriminer entre des types différents de données. » Il admet donc implicitement les péages sur les réseaux, un peu comme sur les autoroutes…, à condition qu’il puisse en contrôler l’installation pour récupérer son pourcentage.  Mais à  coté des réseaux sur lesquels il faudra finalement tout payer, il n’y a pas de routes gratuites acceptables, il reste le 56 K … A noter aussi que l’accord entre Google et Verizon exclue certains services futurs à haut débit que les opérateurs pourraient créer dans le secteur des jeux ou de la santé… et…les réseaux sans fil. «  Reconnaissant de la nature encore naissante du marché du haut débit sans fil, cette proposition n’applique pas les principes des réseaux fixes aux réseaux sans fil. » Google a tout intérêt à ce que Verizon, qui ne revend pas l’iPhone aux Etats Unis, supporte son téléphone sous Android…

Dans un Twitt émis par Google, on peu lire : «  Le New York Times a tors. Nous n’avons pas de conversations avec Verizon sur le paiement du transport de notre trafic. Nous restons engagés vers un internet ouvert ». Quant à Verizon, il ajoute : «  Nous avons dit dans une réponse à la FCC que notre objectif dans une politique d’encadrement d’Internet est d’assurer ouverture et responsabilité et incorpore une autorité spécifique de la FCC, tout en maintenant innovation et investissements. Suggérer que ceci est un accord de business entre nos sociétés est totalement faux. »

Le net aux mains des grandes sociétés monopolistiques

Exit donc la FCC pour le moment. Genachowski  Le mot de la fin de cette épisode revient à Gigi Sohn, Présidente de Public Knowledge qui explique : « Le point d’une règlementation de la neutralité du net est de prévenir les grosses compagnies de se partager Internet entre eux. » Elle ajoute : «  Le sort d’internet- est une affaire trop importante pour être décidé par une négociation impliquant 2 sociétés, aussi grosses soient elles comme Google et Verizon. »