Archive for the ‘LTE’ category

Sigfox, LoRa et les réseaux pour IoT seront-ils un nouveau WiMax?

4 décembre 2015

feature-background

Une bagarre des réseaux sans fils à     bas débits se profile en coulisses de la montée en puissance de l’IoT dans les foyers et dans l’industrie.

Le CES (Consumer Electronic Show) qui se tiendra en janvier 2016 à La Vegas accordera une large place aux objects connectés pour tous les usages, à la maison, dans l’entreprise et même … dans les nuages… Cet ensemble aussi appelé IoT ou Internet of Things est aujourd’hui considéré comme la prochaine vague technologique devant nous envahir et changer une nouvelle fois notre vie, radicalement… ! bientôt…

Qui dit objets connectés dit réseaux, pour permettre de collecter, échanger et utiliser les informations qui circulent entre tous ces objets. Une nouvelle fois, il semble que les opérateurs historiques et leurs concurrents un peu moins historiques se trouvent de nouveau confrontés dans une lutte sans merci pour le contrôle de ces infrastructures qui devront servir et « faire parler » quelques centaines de milliards d’objets. Encore une fois, il est probable que ces escarmouches pour le contrôle des tuyaux jouent un rôle déterminant dans la mise en œuvre effective de ces objets connectés dans notre vie quotidienne, car sans infrastructure facilitatrice, peu coûteuse et pas chère, il n’y aura pas d’Internet des objets.

Un internet sans fil des objets connectés

L’enjeu est maintenant clair. Il s’agit pour un grand nombre d’acteurs d’enclencher, d’accompagner ou de subir une mutation industrielle concernant plusieurs centaines de milliards d’objets potentiellement connectés (ne parlons pas encore de révolution mais elle n’est pas loin)  autour d’un internet mobile similaire à la téléphonie mobile qui a conquis puis bouleversé la vie de quelques milliards d’humains depuis la fin du siècle dernier. On peut donc assez logiquement s’attendre à voir apparaitre les nouveaux Google, Amazon, Salesforce, Facebook et Twitter des objets connectés. Même question pour les infrastructures, verra-ton de nouveaux AT&T, Verizon, Orange (FT), Vodafone, China Mobile émerger ? Quels rapports ces nouvelles sociétés entretiendront-elles avec celles-là ? L’internet des objets sera-t-il un internet à la mode de l’Internet des humains, comme une sorte de sous marque plus ou moins dépendante, ou bien sera-t-il organisé par des nouveaux venus dotés d’outils nouveaux qu’ils contrôlent. Mais nous ne les connaissons pas encore parce qu’ils sont encore sous le radar, et que l’IoT n’a pas encore vraiment décollé? La question mérite d’être posée sachant que la nature humaine déteste les ruptures et que l’économie a plutôt tendance à avancer en regardant derrière.

Les opérateurs mettent les bouchées doubles pour rattraper le temps perdu…

Tout comme pour Internet, et de façon moindre pour la téléphonie sans fil, les grands opérateurs historiques ont été assez lents à réagir face à l’arrivée de l’internet des objets. Occupés par la montée en débit, par la saturation de la bande passante sur les réseaux sans fil, par la nécessité de fibrer les territoires, par les nouveaux services, et retranchés sur leurs positions dominantes parfois mises en coupe par les régulateurs, ils ont certes appris à maitriser l’innovation par la « communication », mais ils ont gardés leurs vieux reflexes séculaires basés sur leur passé monopolistique d’état…Parfois obligés par leur clients et la concurrence (réelle en Europe), Ils sont cependant passé d’une attitude du « block and wait » vers une attitude un peu plus positive du « wait and see »…

Réseaux sur fréquences libres ou payantes… ?

Tout comme au début des années 2000 lorsque que le WiFi montrait timidement le potentiel qu’il représentait, les opérateurs n’ont pas vu l’intérêt des réseaux bas débit, alors que tout le monde parlait de monter en débit, de fibre, d’augmentation de la bande passante, de saturation des réseaux… L’internet des objets donnait surtout l’image d’une tendance à créer des  gadgets  destinés à des bobos technologues férus de réalité virtuelle souhaitant être connectés jusque dans leurs habits. En clair, ils ne percevaient pas la valeur ajoutée de cette approche pour leurs activités et ont continué leur quête de nouvelles fréquences, et augmenter les débits. Ils ont continué la normalisation des réseaux sans fil et leur ouverture au protocole IT,  passant de la 2G à la 2G+, puis à la 3G puis la 3G+ puis au LTE puis à la 4G, bientôt la 4G+ et  préparent maintenant la 5G. Le WiFi a dès le départ été laissé de côté par les opérateurs parce qu’il n’est pas porteur d’un business modèle « operator oriented » et parce qu’il fonctionne sur des fréquences libres, non payantes et ouvertes, même si elles sont réglementées. Le raisonnement a été le même pour les réseaux qui aujourd’hui connectent les objets, car ils opèrent sur des bandes de fréquences restées libres et gratuites qui n’intéressaient plus personnes parce qu’adaptées pour l’analogique (longue portée et bas débits).  Elles ont donc permis à des startups de développer à moindre coût des technologies de réseaux propriétaires,  et les utiliser sans avoir à payer un lourd ticket d’entrée pour s’attribuer ces fréquences.

Bas débit certes… mais aussi basse consommation et longue portée pour redéfinir la connectivité

Une autre caractéristique des réseaux de l’Internet des Objets est d’être capable de fonctionner sur des composants électroniques à très basse consommation. En effet, au fur et à mesure que le secteur se développe apparaissent des objets connectés de type passifs et statiques (en médecine, dans l’automobile, dans les villes intelligentes etc…) construits autour de capteurs  capables d’envoyer sans faillir des petites quantités d’information pendant des années, grâce à une petite pile qu’on ne changera pas parce que l’objet est situé dans un endroit difficilement accessible. C’est sur cette base que s’est développé Sigfox qui explique: «Whilst established providers of connectivity focus on 4G deployment and licensing, we focus on low throughput and subscriptions for objects with little power…. Connecting millions of objects without roaming restrictions and enabled by a very small, extremely low power modem, required our team to “think out of the box””.  Sigfox se définit donc comme un nouveau DNA capable de redéfinir la connectivité…  Le message est clair et il est porteur d’espoir pour toute une industrie plombée par les dinosaures, opérateurs et équipementiers.

L’histoire ne fait que re-commencer…

Le transport de l’information, première grande ligne de force de l’Internet des objets est aujourd’hui assez clairement définie et les opérateurs ont compris un peu plus rapidement leur erreur. Ils vont maintenant jouer sur leurs atouts et sur les faiblesses de l’Internet des objets pour chercher à rattraper le temps perdu. La première faiblesse de l’internet des objets est, dite de façon un peu crue : l’absence de business modèle. Cyril le Floch, CEO de Qovisio, le dernier venu dans le club des réseaux français pour l’Internet des objets indiquait lors d’une récente réunion de la FIRIP à Angers : « Le revenu moyen par objet, l’ARPU sera très faible, proche de Zéro… on ne peut pas envisager de faire payer un abonnement pour connecter un objet… »  Il mentionne alors le Dash bouton d’Amazon et indique qu’il y a encore des centaines d’applications de ce genre à trouver, qui mettront en œuvre des centaines d’objets connectés par foyer… ouvrant vers de nouveaux business modèles disruptifs au mains des marques ou des grands distributeurs ou à défaut financés par les gouvernements, forts de voir leurs villes et leurs territoires devenir « smart ». Les opérateurs, grâce à leurs substantiels revenus récurrents vont, avec des réseaux alternatifs comme LoRa, pouvoir se porter sur des marchés rapidement profitables pour tenter d’empêcher que les marque ne se saisissent de ces nouvelles applications. En parallèle, ils ont déjà entamé une course poursuite technologique pour noyer et dépasser ces réseaux alternatifs. Leur objectif est d’homogénéiser d’ici l’année prochaine les standards haut débit et bas débit autour de la 4 G sur des fréquences attribuées, et au cours d’une marche forcée au sein du 3GPP (l’organisme qui défini et gères les standards cellulaires), permettre à de nouvelles normes LPWAN (les réseaux alternatifs basse puissance pour l’internet des objets) en cours de formalisation, de ne faire plus qu’un seul avec les réseaux cellulaires et les intégrer dans leurs infrastructures avec la 5G.

Orange donnait le ton et ses intentions en adoptant cet automne la technologie LoRa : « After nearly a decade of experience as an operator in machine-to-machine (M2M) communications with its 2G/3G/4G networks, Orange is now broadening its connectivity offer and preparing for the future of the IoT. With this network based on LoRa technology, it is especially useful for connecting sensors in Smart Cities; Orange is also continuing the work on the standardisation of future cell networks (2G/4G)2 for the IoT, which will be operational in 2017 and for 5G by 2022.” Orange indique très clairement qu’avec LoRa, qu’il s’oriente vers les marchés hautement subventionnés des Smart Cities…en attendant la standardisation… et la disparition (espérée) des réseaux alternatifs pour l’Internet des objets… Sigfox, LoRa, Qovisio sont-ils donc voués à une mort certaine…? Nous en reparlerons.

(NDLR: il est interessant de noter que le communiqué de presse de Orange en Anglais n’est pas la traduction exacte du communiqué en Français qui contient moins d’informations)…

Retour de Barcelone MWC 2012 – Fréquences rares et nouvelles architectures

4 mars 2012

Cette année, il a fait beau. Pas de parapluies ou d’imperméables, mais un beau ciel bleu et un temps assez doux. Est-ce un indicateur du temps qu’il fera au cours de cette année mobile ? Les multiples annonces effectuées durant cette manifestation semblent le présager… Mais  je ne suis pas vraiment très sûr que le beau temps soit au rendez vous sur le long terme…

Les fréquences hertziennes, « l’or noir » de l’économie du mobile

Les fréquences hertziennes sont à la base de tout l’écosystème du mobile qui s’était réuni à Barcelone à la fin de ce mois de février 2012 comme il le fait depuis maintenant 7 ans. Les fréquences hertziennes sont à l’économie de la téléphonie et de l’internet mobile ce que le pétrole est au vaste système économique construit autour de l’automobile.  Outre un mode de fonctionnement assez complexe, parfois assez mystérieux, voir magique (ou encore maléfique) pour le grand public,  la grandes particularité des fréquences est d’être une ressource rare. Pourtant, jusqu’à une époque assez récente, on ne se souciait guère ce cet aspect clé… un peu comme le pétrole qu’on a largement gaspillé pendant des années et dont aujourd’hui on voit les réserves s’épuiser.  Les fréquences hertziennes disponibles pour alimenter une demande croissante de services mobiles et transporter des quantités de données en croissance exponentielle sur des territoires toujours plus vastes sont extrêmement rares.

Améliorer l’information sur les fréquences

Pour cela, il faudrait mettre en place une véritable politique de gestion des fréquences, à la fois au niveau de chaque pays et au niveau international, permettant une meilleure information et une plus grande transparence. La récente tentative manquée du rachat de T-Mobile par AT&T aux Etats Unis, qui s’appuyait sur une argumentation plus ou moins crédible autour d’un soit disant manque de fréquences pour couvrir le territoire en 4G, a bien mis en évidence les besoins d’information et de clarté sur les choix et les équations économiques de certains opérateurs. Ainsi AT&T en mettant la main sur un vaste ensemble de fréquences, renforçait et verrouillait son monopole sur l’ensemble du territoire américain.

Lors du MWC 2012, le Dr Hamadoun Touré, Secrétaire Général  de l’ITU (International Télecommunication Union) rappelait le rôle éducatif de l’institution qu’il dirige. « L’attribution des fréquences est un processus complexe qui répond à des règles techniques précises, plus particulièrement parce qu’il faut prévenir les interférences, expliquait-il.  Mais elle répond aussi à de longs processus de négociations entre les acteurs qui participent à leur utilisation.» Pour lui, il est nécessaire de promouvoir une régulation fortement renouvelée qui ne soit plus basée sur la prédominance de la voix mais prenne en compte les nouvelles caractéristiques du monde des télécom ou les données prédominent sur les réseaux mobiles à haut débit. « Nous devons faciliter une meilleure régulation, ajoute-t-il, qui crée de la valeur et de la concurrence et permettre le passage de l’analogique au numérique, dans tous les pays. »

Partage et mutualisation des réseaux.

Dr Hamadoun Touré Sec Gal ITUUne information plus détaillée sur les processus d’allocation des fréquences et de partage des réseaux (fixes et mobiles) semble donc nécessaire. En effet la dernière conférence WRC-12 de Genève en janvier 2012 mettait en place les fondements d’une nouvelle régulation des fréquences après 4 semaines de négociations intensives ou les enjeux comme la mutualisation, l’usage efficace du spectre, le partage des infrastructures ont été longuement discutés. Certains aspects de partage et de mutualisation des réseaux mobiles renvoient directement à la récente polémique inepte autour de la couverture du réseau du nouvel opérateur Free Mobile en France. Des attitudes rétrogrades comme celle de Jean Bernard Levy patron de SFR qui accuse France Télécom d’avoir louée son réseau à Free montrent un évident besoin d’information et d’explication pour le grand public. Une plus grande transparence sur la manière dont sont allouées les fréquences (un bien public rare), sur la manière dont sont partagés (ou pas) les réseaux fixes et mobiles permettront aux utilisateurs de mieux différencier les offres et améliorera la concurrence sur le marché…

La qualité des réseaux mobiles laisse à désirer

L’arrivée de la téléphonie mobile 4G est maintenant une chose acquise, mais la question reste de savoir quand les déploiements commerciaux auront-ils lieu ? Les réseaux sont-ils prêts ? Y aura-t-il suffisamment de fréquences pour répondre aux besoins toujours croissant de transport des données pour chacun, en tous lieux et à toute heure ? Quels investissements ces réseaux nécessitent-ils?  Quelle mutualisation des réseaux faut-il promouvoir pour accroitre l’efficacité des infrastructures et en baisser les coûts ?  Aujourd’hui, quelques pilotes pré-4G, fortement relayés médiatiquement, ont lieu dans plusieurs pays dont la Suède et les Etats Unis, mais dans la réalité, les réseaux 4G ne sont pas encore là et la qualité des réseaux mobiles laisse à désirer. D’autre part, le problème de la voix sur le 4G n’est pas encore résolu et plusieurs solutions étaient présentées à MWC par Fraunhaufer, Qualcomm ou d’autres fabricants de composants.

Une nouvelle vague d’innovation dans les équipements

Au MWC de Barcelone un foisonnement de nouvelles technologies et d’architectures pour l’équipement de ces réseaux était présenté chez les grands équipementiers, et les moins grands. Ainsi parmi les grands, Alcatel-Lucent cherche à reprendre la main en matière d’innovation pour ne pas se laisser désintégrer par les équipementiers chinois très agressifs ou par le géant Coréen Samsung qui a clairement indiqué ses intentions dans ce secteur. Quelques start’up Françaises comme e-Blink se distinguent par des solutions originales.

L’arrivé du 4G, beaucoup plus puissant,  plus souple et plus flexible que le 2G et 3G, pose de nouveaux problèmes d’architecture de réseau qui nécessitent des approches nouvelles.  Il en résulte un regain d’innovation sur la manière de multiplier les cellules pour augmenter la couverture et répondre à la demande exponentielle d’un nombre croissants d’utilisateurs, tout ceci compte tenu du spectre disponible. D’autres développements innovants apparaissent aussi sur la manière de soulager le réseau cellulaire en basculant automatiquement vers les réseaux WiFi. Cependant l’approche femtocells où le particulier dispose d’un boitier à la maison qui relaie le signal 3G et assure le basculement vers le WiFi, semble avoir été abandonnée par les opérateurs qui voient dans ce boitier une menace sur la sécurité de leurs réseaux.

Reconstruction d’un monopole aux Etats Unis : AT&T rachète T-Mobile…

21 mars 2011

Photo AP

AT&T vient de réussir ce que France Télécom a cherché à réaliser pendant plusieurs années (et que nous espérons bien il ne pourra pas achever). L’opérateur historique américain, 1er opérateur pour les Etats Unis, consolide une situation de monopole en rachetant T-Mobile, le 4ème opérateur américain pour 39 milliards de dollars.

Les premières victimes seront indiscutablement les consommateurs (voir mon billet d’hier), et assurément l’ensemble des Etats Unis à terme. Nous sommes en plein dans un paradoxe qui met en évidence l’ambigüité du fonctionnement du marché américain des télécommunications et de sa régulation. Il y a quinze ans, le Président Clinton décidait de déréguler le secteur des télécommunications aux Etats Unis pour créer une plus grande concurrence et favoriser l’innovation, alors qu’Internet émergeait.

La concurrence permet le développement des usages

Le Télécommunication Act de 1996 a effectivement provoqué la naissance de ce qu’on a appelé les CLEC à l’époque (Competitive Local Exchange Carriers), opérateurs alternatifs dynamiques, qui dès l’arrivé du Président Bush ont été laminée par une série de procès retentissants, tous gagnés par les opérateurs historiques ILEC (Incumbent Local Exchange Carriers, par une guerre des prix sans merci et enfin par la bulle Internet, qui a asséché le marché alors que ces CLEC avaient besoin de financements.

Le dégroupage ne s’est donc pas fait aux Etats Unis et le marché s’est consolidé. En France, il a fallu attendre 2004  et une forte incitation législative et une régulation vigoureuse pour qu’il soit mis en route et la concurrence à peu près maintenue. Ces deux exemples montrent que la concurrence en matière de télécom est seule capable de maintenir l’innovation, de maintenir les prix à des niveaux raisonnables, de favoriser les investissements et de développer les usages. La part de marché d’AT&T aux Etats Unis atteindra 43% alors qu’elle était de 32% avant l’annonce.

Le manque de spectre invoqué

Le Président d’AT&T, Ralph de La Vega, dans une interview au Wall Street Journal indiquait que cette opération était rendue inévitable par le manque de spectre de fréquences pour la prochaine génération de réseaux cellulaires. « En combinant les portefeuilles de spectre que nous détenons, dit-il, qui sont complémentaires, cela aide les 2 compagnies »…AT&T, après l’acquisition des 33 millions d’abonnés de T-Mobile disposera de près de 130 millions d’abonnés, loin devant les 94 millions de Verizon et des 50 millions de Sprint-Nextel. T-mobile, filiale de Deutsche Telekom est considéré avoir des difficultés pour migrer son réseau 2G et 3G  vers des réseaux à très haut débit de type LTE très consommateurs de fréquence, justement parce qu’il manque de fréquences.

Quant à AT&T, on sait très bien que la saturation de son réseau mobile est du à un manque d’investissement et à son imprévoyance et son incapacité de réaction quant à l’effet iPhone. En effet l’année dernière, AT&T rachetait à Qualcomm pour 2 milliards de dollars suffisamment de spectre dans les fréquences 700 Mhz pour lui permettre de couvrir 300 millions de personnes en LTE sur le nord des Etats Unis. Plutôt que d’investir réellement dans des équipements LTE,  l’achat de T-Mobile pour ses fréquences est donc une mauvaise justification pour prendre une part de marché encore plus dominante.

AT&T, le plus mauvais opérateur des Etats Unis

Pour le consommateur, AT&T est une galère. Ainsi, pour Consumer Reports, un organisme indépendant de consommateurs qui note les produits, les services et les sociétés ayant affaire au grand public (une sorte de 50 millions de consommateurs à l’Américaine), AT&T arrive avec le plus mauvais score de tous les opérateurs pour la qualité de ses services. Cette note vient de l’avis de 58000 personnes ayant répondu à l’enquète. N’oublions pas que AT&T a été le seul à offrir l’iPhone pendant près de 3 ans aux Etats Unis et qu’il a connu une forte saturation de son réseau, qu’il a nié et tenté de masquer pendant longtemps… Les commentaires associés à AT&T sont édifiants… et il y a fort a parier qu’avec le rapprochement, le service client de T-Mobile qui est assez apprécié, soit mis au pas de celui d’AT&T.

Rapprochement loin d’être acquis

Beaucoup d’analystes aux Etats Unis s’inquiètent de cette opération. Om Malik, fin connaisseur des secteurs de la haute technologie aux Etats Unis énumère laconiquement tous ceux qui risquent de souffrir de ce rapprochement, à part les banquiers qui bien sur profiteront grassement de l’affaire et les responsables des sociétés impliquées qui touchent au passage pour avoir négocié un tel deal. Le diagnostic de Om Malik est sombre pour les consommateurs. Il n’y aura plus que 3 opérateurs sur le marché (AT&T/T-Mobile; Verizon et Sprint-Nextel) dont 2 dominants, alors que T-Mobile représentait une alternative et une force d’innovation entre les 2 dominants.

Il jouait un peu le rôle de Free en France… Non seulement le choix de service diminue, mais les prix vont augmenter rapidement précise-t-il. Pour donner le ton, AT&T ne vient-il pas de de limiter en volume l’usage de ses accès DSL résidentiels, et de créer un Net à péage.  L’opération doit maintenant passer devant la FCC et différentes instances anti-trust aux Etats Unis et il n’est pas dit qu’elle obtienne leur accord facilement.

L’ecosystème en souffrira aussi

Les fabricants de téléphone ont aussi du souci à se faire poursuit Om Malik, plus particulièrement Motorola et HTC qui fabriquent des téléphones GSM. Ils viennent juste de perdre un degré de liberté dans leur capacité de négocier les prix puisque maintenant, AT&T est le seul opérateur à utiliser GSM sur l’Amérique du Nord.  Verizon utilise une autre norme de téléphonie, le CDMA, incompatible aujourd’hui avec GSM.

La diversité des téléphones mis à disposition des utilisateurs risque aussi de se réduire considérablement. En matière de WiFi, T-Mobile avait une politique assez innovante d’accès à un grand nombre de hot spots publics, dans des restaurants, libriaires, aéroports, cafés et hôtels. Il fut le premier à offrir un service de roaming abordable à l’étranger pour ses abonnés. AT&T en est encore loin.

Vers un duopole

Om Malik ajoute que ce rachat entrainera presque immanquablement le rachat de Sprint-Nextel par Verizon, puisque Sprint-Nextel utilise aussi le CDMA, il est encore plus mal en point que ne l’est T-Mobile, mais il est assis sur un large portefeuille de fréquences, ce qui risque de faire monter les prix. Il constate aussi que Sprint et T-Mobile s’étaient souvent trouvés côte à côte face à Verizon et AT&T dans un certain nombre d’arbitrages de régulation. Sprint va maintenant se trouver complètement isolé… Il explique que les quelques petits opérateurs sans fil qui subsistent aux Etats Unis (Metro PCS, Cricket, US Cellular) ont intérêt à se regrouper pour garder une voix au chapitre.

Il mentionne enfin que Google, qui porte Android, risque aussi d’y perdre gros en capacité de négociation. Il est maintenant possible que fort de cette position dominante renforcée, AT&T décide de mettre en place une boutique d’applications pour ses mobiles et cherche a récupérer les bénéfices de la vente d’applications qui lui a été ravie par Apple. Cette démarche risque ainsi de crée d’importantes perturbations sur le marché qui pourraient conduire a une redistribution des cartes. Dans ce genre de mouvement, les dinosaures sont cependant rarement gagnants car si ils ont la puissance,  il leur manque la créativité et l’agilité.

La Neutralité du Net masque une nécessaire remise en question du modèle d’investissement des opérateurs

23 février 2011

Au Mobile World Congress de Barcelone (MWC 2011) la profusion de nouveaux appareils, smartphones, tablettes etc.. n’a fait qu’exposer la partie émergée de l’iceberg, celle immédiatement visible par le grand public. Bien naturellement, elle offre des innovations lui facilitant la vie, lui permettant de se divertir, de mieux travailler, de communiquer et de se déplacer plus facilement… grâce a des appareils plus petits, plus lisible, mieux connectés, plus intelligents et plus faciles à utiliser à tout instant. Cependant, le débat de fond était ailleurs que de savoir s Nokia se rapprochant de Microsoft allait présenter une troisième voie crédible et durable entre la domination d’Apple et la rapide montée en puissance d’Android. Ce dernier est visiblement le grand challenger sur le marché des systèmes d’exploitation pour les smartphones et tablettes.

Les infrastructures, partie immergée de l’iceberg de la téléphonie mobile

Du côté des réseaux, opérateurs et constructeurs vantaient les mérites de la technologie LTE, certains laissant croire que ce nouveau type de réseau de données mobiles fonctionne déjà régulièrement. D’abord, il ne s’agit que d’un réseau de données sur lequel le transport de la voix n’est pas encore résolu (entendez standardisé).

Ce sera bien sur de la voix sur IP. Il faudra donc attendre encore deux ou trois ans avant de voir les premiers vrais déploiements commerciaux du LTE complet, voix et données. Aujourd’hui, il n’existe aucun terminal LTE. La technologie n’est pas encore complètement au point pour être commercialisée de façon industrielle et les opérateurs restent très réticents à investir massivement dessus.

Parmi les conférences de MWC 2011, l’une à plus particulièrement retenu mon attention sur la saturation des réseaux mobiles et leur nécessaire migration vers des réseaux plus puissant : c’est celle de  Gabrielle Gauthey qui s’exprimait juste avant le keynote d’Eric Schmidt. Elle fut pendant 6 ans membre influent du collège de l’ARCEP et est aujourd’hui Senior Vice Présidente chargée des relations institutionnelles internationale de Alcatel Lucent. Elle parlait au nom d’Alcatel Lucent qui est un constructeur d’équipements LTE.

Une explosion des données mobiles qui n’avait pas été prévue

« Nous ne sommes encore qu’à l’aube de l’explosion des données sur les réseaux mobiles » dit-elle rappelant et commentant quelques chiffres connus des opérateurs, mais pas forcément admis par tous. « Le premier challenge est bien sur l’énorme explosion du mobile. Première rupture dont la magnitude et la rapidité n’a jamais été aussi importante, et que collectivement, nous n’avions absolument pas analysée ni prévue. En 1999 seulement une personne sur 6 avait un téléphone cellulaire, aujourd’hui 7 sur 10 en ont un et seulement 10 à 15 % de ces téléphone peuvent accéder à Internet. En 2015, 70% de ces téléphones mobiles auront accès à Internet. »

« Le trafic des données sera multiplié par 30 (voir 40 selon certains analystes) dans les 5 ans à venir. Là où aujourd’hui on a besoin en moyenne de 16 Megabits par seconde pour répondre à une concentration d’environ 400 smartphones au kilomètre carré dans une grande ville, il faudra dans 5 ans être capable d’offrir 2 Gigabits par seconde pour répondre à la demande de 13000 smartphones au kilomètre carré, si l’on admet qu’en temps normal à un instant donné, un appareil sur 5 présents est connecté au réseau…». On peut supposer que cette estimation est déjà bien en dessous de la réalité si les applications liées à la géolocalisation continuent de se développer sur les smartphones.

Un énorme besoin d’investissements

Ces constatations signifient que d’importants investissements seront nécessaires, plus particulièrement en Europe qui, selon Gabrielle Gauthey est aujourd’hui sensiblement à la traine dans le renouvellement de ses infrastructures mobiles. « La commission européenne, dit-elle, estime qu’en Europe nous aurons un besoin d’investissement de 300 milliards d’Euros dans les infrastructures numériques pour les 10 prochaines années dont une centaine de milliards pour les seuls réseaux mobiles.»

Mais les opérateurs téléphoniques, retranchés dans leur arrogance et leurs habitudes monopolistiques locales et séculaires campent donc sur des positions archaïques, très repliés sur eux-mêmes dans un univers de communication numérique dont ils ne comprennent pas bien la dynamique et les nouveaux mécanismes, pratiquant une innovation factice basée sur le discours et d’énormes moyens marketing mis en œuvre pour justifier ces politiques. Réticents d’investir dans de nouvelles infrastructures qui « profitent » à d’autres selon eux, ils cherchent à contrôler et à brider les données qui circulent sur leurs réseaux.

Stéphane Richard PDG d’Orange affirmait voici quelques mois « Il faudrait taxer Google et ces grands opérateurs de contenu pour permettre la mise à jour des réseaux des opérateurs et leur permettre de résister à cet afflux de données… ». Il achetait cependant (certains n’hésitent pas à dire: enterrait) récemment Deezer et DailyMotion, après les avoir longuement combattu.

L’innovation crée le trafic, mais elle ne vient pas des opérateurs téléphoniques

Pour Gabrielle Gauthey, le paysage et les usages des télécommunications ont radicalement et profondément changé en quelques années. L’écosystème dans son ensemble a subit une profonde et rapide mutation qui devrait « conduire les opérateurs à complètement revoir leurs modèles d’investissement ». L’un des aspects les plus discuté lors du MWC 2011 est l’impact des opérateurs dits « over the top », c’est à dire des grands opérateurs de contenu comme Google (YouTube) Facebook, Flicker, Twitter, Groupon et de certains fabricants de téléphone dont Apple et RIM. « C’est leur créativité et leurs innovations qui suscitent la grande majorité du trafic de données sur les réseaux des opérateurs mobiles » ajoute Gabrielle Gauthey.

Ces « over the top » s’infiltrent donc dans l’écosystème des opérateurs par les usages, mais ces derniers ne peuvent pas les contrôler pour autant car « le vieux business modèle de la vente de voix à la minute et à la distance, mis en oeuvre il y a un plus d’un siècle par Graham Bell, est devenu complètement obsolète. Il y a eu découplage entre le trafic et les revenus… Les opérateurs ont vu leurs marges baisser ce qui ne leur permet plus de financer les infrastructures réseaux à travers des business modèles tels qu’ils continuent de les pratiquer. » Il est donc temps que les opérateurs se penchent sur un renouvellement profond de leurs modèles, sous peine de continuer de perdre contrôle du marché au détriment des « over the top » qui dégagent d’importants cash flow et suscitent la demande.

Ce qui se cache derrière le débat sur la Neutralité du Net

« Le vrai challenge des opérateurs explique Gabrielle Gauthey, se cache derrière le débat sur la Neutralité du Net depuis quelques années. La neutralité du Net est apparue aux Etats Unis à la suite du procès intenté à Comcast et s’est ensuite étendue à l’Europe et au reste du monde au fur et à mesure que les données mobiles entrainaient une rapide saturation des réseaux. » Le monde du contenu, représenté par les opérateurs « over the top » et le monde des opérateurs téléphoniques se sont rejoints sur Internet, vecteur de distribution universel.

« Mais, précise Gabrielle Gauthey, ils ont des business modèles très différents et touchent des marchés différents, les « over the top sont globaux alors que les opérateurs de services sont généralement locaux. Pourtant, leurs futurs sont liés et tous ces acteurs sont devenus hautement interdépendants et interconnectés. Il faut une vision partagée pour assurer la mise en place  de la société numérique. Dans le monde IP (Internet Protocol), c’est le même réseau qui transporte la voix, les données et la vidéo. Mais ce monde s’est développé autour des données, sans le modèle standard d’interconnexion qui dans le monde de la voix  a permis de fournir une qualité de service égale de bout en bout sur les réseaux. Il n’existe pas de standard identique d’interconnexion des données qui permette de garantir une qualité de service sur les réseaux de données. »

« En même temps, poursuit-elle, l’exigence des utilisateurs en termes d’accès aux réseaux, de qualité de service, de bande passante, de sécurité et de fiabilité doit être valorisée, y compris par les opérateurs « over the top ». Tout le monde sait, plus particulièrement dans le monde mobile, que les applications vont faire face à des problèmes de performances sur les réseaux, mais rien n’en assure le contrôle et la régulation aujourd’hui. « Mais la Net Neutrality ne doit pas nous détourner du point le plus important et le plus urgent qui est celui d’accroitre la capacité des réseaux aussi vite que possible. »

Investir et partager pour accroitre la capacité des réseaux

Trois facteurs clés jouent sur la performance des réseaux. Ce sont le nombre de points hauts (le nombre d’antennes), le spectre de fréquence disponible et l’efficacité des technologies de transmission. « Le premier facteur précise Gabrielle Gauthey, conduira certainement à la densification des pico et femto cellules et à l’amélioration des connexions de backhaul. En effet, la fibre est l’avenir du sans fil. Mais le challenge est important à ce niveau là parce qu’il devient de plus en plus difficile de densifier le nombre d’antenne, particulièrement en milieu urbain. Il y a déjà là une première incitation pour les opérateurs à partager les points hauts, et même le backhaul dans certains cas. »

« Le spectre est le point le plus délicat, affirme-t-elle. Il faudra encore plus de fréquence pour satisfaire ces 13000 smartphones au km² dans 5 ans. Mais le spectre est limité, il n’y en aura pas assez pour tous. C’est une autre incitation pour les opérateurs à partager. Le partage du spectre de fréquence devient obligatoire dans la mesure ou la technologie LTE nécessite des canaux de 20Mhz pour fournir une bande passante capable de répondre à la demande croissante de données. »

« Nous pensons que conjointement à l’utilisation du LTE, les opérateurs doivent considérer le partage des fréquences et des réseaux comme la seule voie pour en améliorer la puissance et la capacité, plutôt que de s’engager dans la création de 3 ou 4 réseaux parallèles. Ils doivent maintenant considerer de nouveaux modèles d’investissement, aussi bien dans les zones urbaines que dans les zones rurales où la demande de bande passante est aussi très forte. » En d’autre termes, la concurrence par les réseaux, prônée par la commission européenne ne semble pas être la panacée qu’on attendait.

Fiers d’être des opérateurs de tuyaux

« Les opérateurs conclue-t-ell, doivent être fiers d’être des opérateurs de tuyaux, de tuyaux intelligents. La différenciation doit être cependant réalisée sous certaines conditions. Elle ne doit pas etre discriminante pour les utilisateurs, ni pour les concurrents et doit s’appuyer sur des accords entre les opérateurs et une grande transparence. Celle-ci doit permettre à tous, utilisateurs et opérateurs, de disposer d’informations quantifiées et claires autour du trafic sur le réseau, des pratiques de gestion des flux de contenu, de la capacité, de la bande passante réelle etc.., de façon à ce qu’il puissent prendre une décision d’achat appropriée, qui ne lie pas l’utilisateur à un opérateur… » Ces pratiques commencent à apparaitre dans les pays en voie de développement qui se séparent progressivement des vieux modèles d’opérateurs imposés par des siècles de pratiques coloniales. Enfin, Gabrielle Gauthey indique que les régulateurs dans le monde peuvent être les garants de ces dispositions, en s’attachant à répondre aux caractéristiques locales et en garantissant la transparence.

Très haut débit sans fil pour tous, le « SuperWifi » annoncé aux Etats Unis..

28 septembre 2010

La FCC américaine vient de libérer un ensemble de fréquences hertziennes inutilisées dans les interstices des chaines de télévision analogiques afin de les ouvrir à une utilisation sans licence préalable par des « terminaux mobiles » capables de télécharger des informations à très haut débit (80 Mbps et plus). Immédiatement appelé SuperWiFi parce que ces fréquences basses peuvent transporter des données à très haute vitesse sur des grandes distances (plusieurs kilomètres) à partir d’émetteurs de faible puissance, ce réseau couterait beaucoup moins cher à installer que les réseaux cellulaires 3G ou LTE, ne parlons pas des réseaux de fibre qui se cantonnent dans les zones denses aujourd’hui. Il serait plus puissant, capable de mieux pénétrer dans les bâtiments et serait ouvert à tous : particuliers, municipalités, communautés diverses, opérateurs… sans nécessité de posséder ou d’acheter une licence d’exploitation.

Inspiré du mode de fonctionnement du WiFi (qui rappelons le fut interdit à ses début pendant quelques temps en France), il serait basé sur des technologies nouvelles plus performantes, plus efficaces et moins chères dont les développements semblent déjà avancés aux Etats Unis… Le Chairman de la FCC, Julius Genachowski indiquait « Cette décision ouvre une nouvelle ère pour l’innovation technologique américaine. Nous savons d’expérience que ce spectre non licencié peut susciter des innovations énormément utiles. Par exemple, il y a des années, personne n’imaginait la manière d’utiliser du spectre de basse qualité inutilisé qualifié de « bande pourrie » lorsque la FCC a décidé de le libérer sans licence.  Le résultat fut une vague de technologies nouvelles… le Wifi qui est aujourd’hui une industrie de plusieurs milliards de dollars et une partie essentielle de l’écosystème de la mobilité ». Cette nouvelle approche permettrait de réaliser le très haut débit pour tous sans la fibre.

Un mouvement entamé il y a dejà 3 ans

Mais chaque fois que de nouvelles fréquences hertziennes sont libérées et destinées à être proposées au public pour créer de nouvelles infrastructures qui ne tombent pas à priori dans l’escarcelle des opérateurs en place, les boucliers se lèvent, surtout aux Etats Unis ou les lobbies des opérateurs sont extrêmement puissants et efficaces pour protéger leurs monopôles. Le WiFi en son temps a pris tout le monde par surprise et les opérateurs ont eu beaucoup de mal à le museler. Aujourd’hui, ils ne veulent pas se laisser prendre de nouveau avec ce super Wifi. Chacun sait en effet que ces monopoles historiques s’appuient sur les infrastructures pour verrouiller les consommateurs « ad vitam » chez le même opérateur, jusqu’à ce qu’une nouvelle technologie arrive, qu’ils refusent dans un premier temps et essaient de récupérer et de contrôler, ou même de tuer dans un deuxième temps (cf le WiMax).

Ce mouvement se fait sous le regard plus ou moins bienveillant des régulateurs (FCC, ARCEP, Ofcom, ORECE,  etc…) dont le rôle est de faciliter le développement des infrastructures et des usages sur des marchés réputés ouverts. C’est une des raisons pour lesquelles les opérateurs sont particulièrement averses à toute innovation technologique… (sauf au niveau du discours)… et c’est aussi la raison pourquoi ils voient d’un très mauvais œil l’annonce de ce « superWiFi » que tout le monde découvre aujourd’hui mais qui se prépare aux Etats Unis depuis déjà plusieurs années sous le terme de « White Spaces » ou encore « Fréquences Blanches ». Il est donc tout naturel que la FCC, dirigée de façon intelligente, s’oriente vers une mise à disposition non licenciée de ces fréquences, étant quasiment certaine que l’innovation viendra avec.

Que sont ces « bandes blanches » ?

A la fin de 2006 et au début 2007, plusieurs ingénieurs de sociétés de la Silicon Valley comme Google et autres grands de l’informatique ou d’internet se réunissaient pour discuter de ces fameuses fréquences blanches et finalement créent une alliance appelée « White Space Coalition » regroupant plusieurs poids lourds comme Dell, HP, Microsoft, Google, Intel, Philips, Earthlink et Samsung. L’objectif clairement affiché est de développer une technologie sans fil qui utilise des petites portions de bandes de fréquences de la Télévision Analogique dans les zones 54 – 698 MHz, pour transporter des données sans fil à très haut débit (80 mbps et au dessus). Les bandes de fréquences visées sont appelées « bandes blanches » ou « fréquences blanches » parce que ce sont des bandes inutilisées qui ont été mises en place pour éviter les interférences entre les canaux de télévision analogique (aujourd’hui en cours de disparition).

L’un des principaux problèmes de l’utilisation de ces fréquences blanches est posé par les interférences qui peuvent se produire avec les canaux de télévision existants. En octobre 2008, Google tenait une conférence sur ce thème dans ses locaux à Mountain View montrant l’intérêt de nouvelles technologies comme les radios cognitives qui permettent une gestion dynamique et flexible à basse puissance des fréquences vacantes.

L’une des difficultés de l’utilisation de ces fréquences blanche est qu’elles forment un véritable « gruyère » parce que ce sont des petites bandes de fréquence qui se trouvent entre des canaux de TV affectés à des endroits différents selon les régions. La technologie doit donc déterminer avec précision les canaux pré-existants et éviter les interférences locales. Le 5 novembre suivant, la FCC approuvait à l’unanimité l’idée de l’utilisation non licenciée des fréquences blanches, accompagnée d’un ensemble de recommandations sur la manière dont les appareils (TV Band Devices) doivent fonctionner pour éviter les interférences locales.

L’argument des interférences…

A peine la décision de la FCC était-elle prise en novembre 2008 que la NAB (National Association of Broadcasters) réagissait associée à l’Association for Maximum Service Télévision (MSTV) demandant à la FCC de revenir sur sa décision. Plainte était déposé devant la court d’Appel du District de Columbia mentionnant que l’utilisation des Fréquences Blanches conduirait à dégrader les services de Télévision. D’autres arguments étaient cités concernant les interférences possibles avec les fréquences audio utilisées par les micros dans les systèmes de sonorisation publique. La chanteuse américaine Dolly Parton, réquisitionnée par la NAB pour se faire l’avocat de la protection des fréquences blanches, perdait la bataille.

Microsoft, impliqué depuis le début dans ces bandes blanches, a mis en œuvre un prototype de réseau « superWifi » sur son vaste campus de Redmond et a testé les interférences possibles avec les dispositifs radio en place. Les ingénieurs de Microsoft ont développé des outils permettant d’identifier la présence de canaux audio utilisés au fur et à mesure que le terminal se déplace et d’éviter les interférences. L’installation mise en place avec seulement 2 stations a permis de couvrir la totalité du campus de Microsoft qui fait 250 hectares pour près de 200 bâtiments. Pour l’instant ce réseau est un prototype de laboratoire et Microsoft n’a pas indiqué son intention d’en faire un produit.

Les fréquences, un bien public…

Les fréquences hertziennes sont à la base des infrastructures de communication sans fil qui se développent depuis une bonne quinzaine d’années, qui sont aujourd’hui utilisées quotidiennement par des milliards d’utilisateurs pour téléphoner ou pour accéder à Internet sans fil, surtout depuis que les smartphones et les tablettes numériques se sont développés.

Historiquement, l’affectation des fréquences les plus attractives (dites en or) s’est faite au profit des technologies existantes à l’époque qui sont aujourd’hui quelque peu obsolètes et plutôt inefficaces en termes d’utilisation du spectre. Ces technologies, la télévision, la radio et la téléphonie cellulaire sont mises en oeuvre par des sociétés historiques qui détiennent des monopoles (de fait ou constitués) sur lesquelles elles sont assises confortablement grâce à la possession de ces fréquences. On a bien vu les difficultés qu’a soulevées l’attribution de la 4ème fréquence de téléphonie sans fil en France.

Que va faire l’ARCEP ?

La libération de nouvelles fréquences suscite toujours des ambitions chez des nouveaux entrants potentiels et des craintes des sociétés en place qui voient leur « legacy » devenir un véritable boulet s’ils n’investissent pas rapidement dans ces nouvelles technologies et ne répondent pas proprement aux nouveaux besoins qu’elles satisfont.  Ils cherchent donc à contrôler étroitement les affectations de nouvelles fréquences et l’innovation technologique. C’est probablement ce qui va se passer avec ce nouveau SuperWiFi.

C’est justement dans cette mesure que ce nouveau superWiFi est particulièrement intéressant parce qu’il élargira de façon importante la portée et la puissance du WiFi et ne sera pas, à priori, la propriété exclusive des opérateurs en place. Alors que les réseaux LTE représentent un investissement important pour les opérateurs, mais ne couvriront pas suffisamment de territoire avant une bonne quinzaine d’année à cause du lancinant problème des zones moins denses ou rurales dans lesquelles ils ne veulent pas investir, alors que les réseaux 3G sont surchargés et menacent de crouler sous la demande au fur et à mesure que les smartphones et les tablettes arrivent en masse sur le marché, le superWifi semble une opportunité incontournable.

L’ARCEP connait parfaitement ces bandes de « fréquences blanches ». L’Europe aussi, mais rien ne bouge encore de ce côté-là. Resteront-elles frileusement sur des positions prises? Par exemple en matière de WiMax,  interdire le roaming sous prétexte de prétendues interférences (et éviter une levée de bouclier de la part des opérateurs).  Ou bien prendront-elles rapidement des positions innovantes qui lèveront interdits et incertitudes sur ce superWiFi et permettrons à des développeurs et des industriels Français de se lancer dans cette nouvelle aventure… ?