Archive for the ‘LTE’ category

Sigfox, LoRa et les réseaux pour IoT seront-ils un nouveau WiMax?

4 décembre 2015

feature-background

Une bagarre des réseaux sans fils à     bas débits se profile en coulisses de la montée en puissance de l’IoT dans les foyers et dans l’industrie.

Le CES (Consumer Electronic Show) qui se tiendra en janvier 2016 à La Vegas accordera une large place aux objects connectés pour tous les usages, à la maison, dans l’entreprise et même … dans les nuages… Cet ensemble aussi appelé IoT ou Internet of Things est aujourd’hui considéré comme la prochaine vague technologique devant nous envahir et changer une nouvelle fois notre vie, radicalement… ! bientôt…

Qui dit objets connectés dit réseaux, pour permettre de collecter, échanger et utiliser les informations qui circulent entre tous ces objets. Une nouvelle fois, il semble que les opérateurs historiques et leurs concurrents un peu moins historiques se trouvent de nouveau confrontés dans une lutte sans merci pour le contrôle de ces infrastructures qui devront servir et « faire parler » quelques centaines de milliards d’objets. Encore une fois, il est probable que ces escarmouches pour le contrôle des tuyaux jouent un rôle déterminant dans la mise en œuvre effective de ces objets connectés dans notre vie quotidienne, car sans infrastructure facilitatrice, peu coûteuse et pas chère, il n’y aura pas d’Internet des objets.

Un internet sans fil des objets connectés

L’enjeu est maintenant clair. Il s’agit pour un grand nombre d’acteurs d’enclencher, d’accompagner ou de subir une mutation industrielle concernant plusieurs centaines de milliards d’objets potentiellement connectés (ne parlons pas encore de révolution mais elle n’est pas loin)  autour d’un internet mobile similaire à la téléphonie mobile qui a conquis puis bouleversé la vie de quelques milliards d’humains depuis la fin du siècle dernier. On peut donc assez logiquement s’attendre à voir apparaitre les nouveaux Google, Amazon, Salesforce, Facebook et Twitter des objets connectés. Même question pour les infrastructures, verra-ton de nouveaux AT&T, Verizon, Orange (FT), Vodafone, China Mobile émerger ? Quels rapports ces nouvelles sociétés entretiendront-elles avec celles-là ? L’internet des objets sera-t-il un internet à la mode de l’Internet des humains, comme une sorte de sous marque plus ou moins dépendante, ou bien sera-t-il organisé par des nouveaux venus dotés d’outils nouveaux qu’ils contrôlent. Mais nous ne les connaissons pas encore parce qu’ils sont encore sous le radar, et que l’IoT n’a pas encore vraiment décollé? La question mérite d’être posée sachant que la nature humaine déteste les ruptures et que l’économie a plutôt tendance à avancer en regardant derrière.

Les opérateurs mettent les bouchées doubles pour rattraper le temps perdu…

Tout comme pour Internet, et de façon moindre pour la téléphonie sans fil, les grands opérateurs historiques ont été assez lents à réagir face à l’arrivée de l’internet des objets. Occupés par la montée en débit, par la saturation de la bande passante sur les réseaux sans fil, par la nécessité de fibrer les territoires, par les nouveaux services, et retranchés sur leurs positions dominantes parfois mises en coupe par les régulateurs, ils ont certes appris à maitriser l’innovation par la « communication », mais ils ont gardés leurs vieux reflexes séculaires basés sur leur passé monopolistique d’état…Parfois obligés par leur clients et la concurrence (réelle en Europe), Ils sont cependant passé d’une attitude du « block and wait » vers une attitude un peu plus positive du « wait and see »…

Réseaux sur fréquences libres ou payantes… ?

Tout comme au début des années 2000 lorsque que le WiFi montrait timidement le potentiel qu’il représentait, les opérateurs n’ont pas vu l’intérêt des réseaux bas débit, alors que tout le monde parlait de monter en débit, de fibre, d’augmentation de la bande passante, de saturation des réseaux… L’internet des objets donnait surtout l’image d’une tendance à créer des  gadgets  destinés à des bobos technologues férus de réalité virtuelle souhaitant être connectés jusque dans leurs habits. En clair, ils ne percevaient pas la valeur ajoutée de cette approche pour leurs activités et ont continué leur quête de nouvelles fréquences, et augmenter les débits. Ils ont continué la normalisation des réseaux sans fil et leur ouverture au protocole IT,  passant de la 2G à la 2G+, puis à la 3G puis la 3G+ puis au LTE puis à la 4G, bientôt la 4G+ et  préparent maintenant la 5G. Le WiFi a dès le départ été laissé de côté par les opérateurs parce qu’il n’est pas porteur d’un business modèle « operator oriented » et parce qu’il fonctionne sur des fréquences libres, non payantes et ouvertes, même si elles sont réglementées. Le raisonnement a été le même pour les réseaux qui aujourd’hui connectent les objets, car ils opèrent sur des bandes de fréquences restées libres et gratuites qui n’intéressaient plus personnes parce qu’adaptées pour l’analogique (longue portée et bas débits).  Elles ont donc permis à des startups de développer à moindre coût des technologies de réseaux propriétaires,  et les utiliser sans avoir à payer un lourd ticket d’entrée pour s’attribuer ces fréquences.

Bas débit certes… mais aussi basse consommation et longue portée pour redéfinir la connectivité

Une autre caractéristique des réseaux de l’Internet des Objets est d’être capable de fonctionner sur des composants électroniques à très basse consommation. En effet, au fur et à mesure que le secteur se développe apparaissent des objets connectés de type passifs et statiques (en médecine, dans l’automobile, dans les villes intelligentes etc…) construits autour de capteurs  capables d’envoyer sans faillir des petites quantités d’information pendant des années, grâce à une petite pile qu’on ne changera pas parce que l’objet est situé dans un endroit difficilement accessible. C’est sur cette base que s’est développé Sigfox qui explique: «Whilst established providers of connectivity focus on 4G deployment and licensing, we focus on low throughput and subscriptions for objects with little power…. Connecting millions of objects without roaming restrictions and enabled by a very small, extremely low power modem, required our team to “think out of the box””.  Sigfox se définit donc comme un nouveau DNA capable de redéfinir la connectivité…  Le message est clair et il est porteur d’espoir pour toute une industrie plombée par les dinosaures, opérateurs et équipementiers.

L’histoire ne fait que re-commencer…

Le transport de l’information, première grande ligne de force de l’Internet des objets est aujourd’hui assez clairement définie et les opérateurs ont compris un peu plus rapidement leur erreur. Ils vont maintenant jouer sur leurs atouts et sur les faiblesses de l’Internet des objets pour chercher à rattraper le temps perdu. La première faiblesse de l’internet des objets est, dite de façon un peu crue : l’absence de business modèle. Cyril le Floch, CEO de Qovisio, le dernier venu dans le club des réseaux français pour l’Internet des objets indiquait lors d’une récente réunion de la FIRIP à Angers : « Le revenu moyen par objet, l’ARPU sera très faible, proche de Zéro… on ne peut pas envisager de faire payer un abonnement pour connecter un objet… »  Il mentionne alors le Dash bouton d’Amazon et indique qu’il y a encore des centaines d’applications de ce genre à trouver, qui mettront en œuvre des centaines d’objets connectés par foyer… ouvrant vers de nouveaux business modèles disruptifs au mains des marques ou des grands distributeurs ou à défaut financés par les gouvernements, forts de voir leurs villes et leurs territoires devenir « smart ». Les opérateurs, grâce à leurs substantiels revenus récurrents vont, avec des réseaux alternatifs comme LoRa, pouvoir se porter sur des marchés rapidement profitables pour tenter d’empêcher que les marque ne se saisissent de ces nouvelles applications. En parallèle, ils ont déjà entamé une course poursuite technologique pour noyer et dépasser ces réseaux alternatifs. Leur objectif est d’homogénéiser d’ici l’année prochaine les standards haut débit et bas débit autour de la 4 G sur des fréquences attribuées, et au cours d’une marche forcée au sein du 3GPP (l’organisme qui défini et gères les standards cellulaires), permettre à de nouvelles normes LPWAN (les réseaux alternatifs basse puissance pour l’internet des objets) en cours de formalisation, de ne faire plus qu’un seul avec les réseaux cellulaires et les intégrer dans leurs infrastructures avec la 5G.

Orange donnait le ton et ses intentions en adoptant cet automne la technologie LoRa : « After nearly a decade of experience as an operator in machine-to-machine (M2M) communications with its 2G/3G/4G networks, Orange is now broadening its connectivity offer and preparing for the future of the IoT. With this network based on LoRa technology, it is especially useful for connecting sensors in Smart Cities; Orange is also continuing the work on the standardisation of future cell networks (2G/4G)2 for the IoT, which will be operational in 2017 and for 5G by 2022.” Orange indique très clairement qu’avec LoRa, qu’il s’oriente vers les marchés hautement subventionnés des Smart Cities…en attendant la standardisation… et la disparition (espérée) des réseaux alternatifs pour l’Internet des objets… Sigfox, LoRa, Qovisio sont-ils donc voués à une mort certaine…? Nous en reparlerons.

(NDLR: il est interessant de noter que le communiqué de presse de Orange en Anglais n’est pas la traduction exacte du communiqué en Français qui contient moins d’informations)…

Retour de Barcelone MWC 2012 – Fréquences rares et nouvelles architectures

4 mars 2012

Cette année, il a fait beau. Pas de parapluies ou d’imperméables, mais un beau ciel bleu et un temps assez doux. Est-ce un indicateur du temps qu’il fera au cours de cette année mobile ? Les multiples annonces effectuées durant cette manifestation semblent le présager… Mais  je ne suis pas vraiment très sûr que le beau temps soit au rendez vous sur le long terme…

Les fréquences hertziennes, « l’or noir » de l’économie du mobile

Les fréquences hertziennes sont à la base de tout l’écosystème du mobile qui s’était réuni à Barcelone à la fin de ce mois de février 2012 comme il le fait depuis maintenant 7 ans. Les fréquences hertziennes sont à l’économie de la téléphonie et de l’internet mobile ce que le pétrole est au vaste système économique construit autour de l’automobile.  Outre un mode de fonctionnement assez complexe, parfois assez mystérieux, voir magique (ou encore maléfique) pour le grand public,  la grandes particularité des fréquences est d’être une ressource rare. Pourtant, jusqu’à une époque assez récente, on ne se souciait guère ce cet aspect clé… un peu comme le pétrole qu’on a largement gaspillé pendant des années et dont aujourd’hui on voit les réserves s’épuiser.  Les fréquences hertziennes disponibles pour alimenter une demande croissante de services mobiles et transporter des quantités de données en croissance exponentielle sur des territoires toujours plus vastes sont extrêmement rares.

Améliorer l’information sur les fréquences

Pour cela, il faudrait mettre en place une véritable politique de gestion des fréquences, à la fois au niveau de chaque pays et au niveau international, permettant une meilleure information et une plus grande transparence. La récente tentative manquée du rachat de T-Mobile par AT&T aux Etats Unis, qui s’appuyait sur une argumentation plus ou moins crédible autour d’un soit disant manque de fréquences pour couvrir le territoire en 4G, a bien mis en évidence les besoins d’information et de clarté sur les choix et les équations économiques de certains opérateurs. Ainsi AT&T en mettant la main sur un vaste ensemble de fréquences, renforçait et verrouillait son monopole sur l’ensemble du territoire américain.

Lors du MWC 2012, le Dr Hamadoun Touré, Secrétaire Général  de l’ITU (International Télecommunication Union) rappelait le rôle éducatif de l’institution qu’il dirige. « L’attribution des fréquences est un processus complexe qui répond à des règles techniques précises, plus particulièrement parce qu’il faut prévenir les interférences, expliquait-il.  Mais elle répond aussi à de longs processus de négociations entre les acteurs qui participent à leur utilisation.» Pour lui, il est nécessaire de promouvoir une régulation fortement renouvelée qui ne soit plus basée sur la prédominance de la voix mais prenne en compte les nouvelles caractéristiques du monde des télécom ou les données prédominent sur les réseaux mobiles à haut débit. « Nous devons faciliter une meilleure régulation, ajoute-t-il, qui crée de la valeur et de la concurrence et permettre le passage de l’analogique au numérique, dans tous les pays. »

Partage et mutualisation des réseaux.

Dr Hamadoun Touré Sec Gal ITUUne information plus détaillée sur les processus d’allocation des fréquences et de partage des réseaux (fixes et mobiles) semble donc nécessaire. En effet la dernière conférence WRC-12 de Genève en janvier 2012 mettait en place les fondements d’une nouvelle régulation des fréquences après 4 semaines de négociations intensives ou les enjeux comme la mutualisation, l’usage efficace du spectre, le partage des infrastructures ont été longuement discutés. Certains aspects de partage et de mutualisation des réseaux mobiles renvoient directement à la récente polémique inepte autour de la couverture du réseau du nouvel opérateur Free Mobile en France. Des attitudes rétrogrades comme celle de Jean Bernard Levy patron de SFR qui accuse France Télécom d’avoir louée son réseau à Free montrent un évident besoin d’information et d’explication pour le grand public. Une plus grande transparence sur la manière dont sont allouées les fréquences (un bien public rare), sur la manière dont sont partagés (ou pas) les réseaux fixes et mobiles permettront aux utilisateurs de mieux différencier les offres et améliorera la concurrence sur le marché…

La qualité des réseaux mobiles laisse à désirer

L’arrivée de la téléphonie mobile 4G est maintenant une chose acquise, mais la question reste de savoir quand les déploiements commerciaux auront-ils lieu ? Les réseaux sont-ils prêts ? Y aura-t-il suffisamment de fréquences pour répondre aux besoins toujours croissant de transport des données pour chacun, en tous lieux et à toute heure ? Quels investissements ces réseaux nécessitent-ils?  Quelle mutualisation des réseaux faut-il promouvoir pour accroitre l’efficacité des infrastructures et en baisser les coûts ?  Aujourd’hui, quelques pilotes pré-4G, fortement relayés médiatiquement, ont lieu dans plusieurs pays dont la Suède et les Etats Unis, mais dans la réalité, les réseaux 4G ne sont pas encore là et la qualité des réseaux mobiles laisse à désirer. D’autre part, le problème de la voix sur le 4G n’est pas encore résolu et plusieurs solutions étaient présentées à MWC par Fraunhaufer, Qualcomm ou d’autres fabricants de composants.

Une nouvelle vague d’innovation dans les équipements

Au MWC de Barcelone un foisonnement de nouvelles technologies et d’architectures pour l’équipement de ces réseaux était présenté chez les grands équipementiers, et les moins grands. Ainsi parmi les grands, Alcatel-Lucent cherche à reprendre la main en matière d’innovation pour ne pas se laisser désintégrer par les équipementiers chinois très agressifs ou par le géant Coréen Samsung qui a clairement indiqué ses intentions dans ce secteur. Quelques start’up Françaises comme e-Blink se distinguent par des solutions originales.

L’arrivé du 4G, beaucoup plus puissant,  plus souple et plus flexible que le 2G et 3G, pose de nouveaux problèmes d’architecture de réseau qui nécessitent des approches nouvelles.  Il en résulte un regain d’innovation sur la manière de multiplier les cellules pour augmenter la couverture et répondre à la demande exponentielle d’un nombre croissants d’utilisateurs, tout ceci compte tenu du spectre disponible. D’autres développements innovants apparaissent aussi sur la manière de soulager le réseau cellulaire en basculant automatiquement vers les réseaux WiFi. Cependant l’approche femtocells où le particulier dispose d’un boitier à la maison qui relaie le signal 3G et assure le basculement vers le WiFi, semble avoir été abandonnée par les opérateurs qui voient dans ce boitier une menace sur la sécurité de leurs réseaux.

Reconstruction d’un monopole aux Etats Unis : AT&T rachète T-Mobile…

21 mars 2011

Photo AP

AT&T vient de réussir ce que France Télécom a cherché à réaliser pendant plusieurs années (et que nous espérons bien il ne pourra pas achever). L’opérateur historique américain, 1er opérateur pour les Etats Unis, consolide une situation de monopole en rachetant T-Mobile, le 4ème opérateur américain pour 39 milliards de dollars.

Les premières victimes seront indiscutablement les consommateurs (voir mon billet d’hier), et assurément l’ensemble des Etats Unis à terme. Nous sommes en plein dans un paradoxe qui met en évidence l’ambigüité du fonctionnement du marché américain des télécommunications et de sa régulation. Il y a quinze ans, le Président Clinton décidait de déréguler le secteur des télécommunications aux Etats Unis pour créer une plus grande concurrence et favoriser l’innovation, alors qu’Internet émergeait.

La concurrence permet le développement des usages

Le Télécommunication Act de 1996 a effectivement provoqué la naissance de ce qu’on a appelé les CLEC à l’époque (Competitive Local Exchange Carriers), opérateurs alternatifs dynamiques, qui dès l’arrivé du Président Bush ont été laminée par une série de procès retentissants, tous gagnés par les opérateurs historiques ILEC (Incumbent Local Exchange Carriers, par une guerre des prix sans merci et enfin par la bulle Internet, qui a asséché le marché alors que ces CLEC avaient besoin de financements.

Le dégroupage ne s’est donc pas fait aux Etats Unis et le marché s’est consolidé. En France, il a fallu attendre 2004  et une forte incitation législative et une régulation vigoureuse pour qu’il soit mis en route et la concurrence à peu près maintenue. Ces deux exemples montrent que la concurrence en matière de télécom est seule capable de maintenir l’innovation, de maintenir les prix à des niveaux raisonnables, de favoriser les investissements et de développer les usages. La part de marché d’AT&T aux Etats Unis atteindra 43% alors qu’elle était de 32% avant l’annonce.

Le manque de spectre invoqué

Le Président d’AT&T, Ralph de La Vega, dans une interview au Wall Street Journal indiquait que cette opération était rendue inévitable par le manque de spectre de fréquences pour la prochaine génération de réseaux cellulaires. « En combinant les portefeuilles de spectre que nous détenons, dit-il, qui sont complémentaires, cela aide les 2 compagnies »…AT&T, après l’acquisition des 33 millions d’abonnés de T-Mobile disposera de près de 130 millions d’abonnés, loin devant les 94 millions de Verizon et des 50 millions de Sprint-Nextel. T-mobile, filiale de Deutsche Telekom est considéré avoir des difficultés pour migrer son réseau 2G et 3G  vers des réseaux à très haut débit de type LTE très consommateurs de fréquence, justement parce qu’il manque de fréquences.

Quant à AT&T, on sait très bien que la saturation de son réseau mobile est du à un manque d’investissement et à son imprévoyance et son incapacité de réaction quant à l’effet iPhone. En effet l’année dernière, AT&T rachetait à Qualcomm pour 2 milliards de dollars suffisamment de spectre dans les fréquences 700 Mhz pour lui permettre de couvrir 300 millions de personnes en LTE sur le nord des Etats Unis. Plutôt que d’investir réellement dans des équipements LTE,  l’achat de T-Mobile pour ses fréquences est donc une mauvaise justification pour prendre une part de marché encore plus dominante.

AT&T, le plus mauvais opérateur des Etats Unis

Pour le consommateur, AT&T est une galère. Ainsi, pour Consumer Reports, un organisme indépendant de consommateurs qui note les produits, les services et les sociétés ayant affaire au grand public (une sorte de 50 millions de consommateurs à l’Américaine), AT&T arrive avec le plus mauvais score de tous les opérateurs pour la qualité de ses services. Cette note vient de l’avis de 58000 personnes ayant répondu à l’enquète. N’oublions pas que AT&T a été le seul à offrir l’iPhone pendant près de 3 ans aux Etats Unis et qu’il a connu une forte saturation de son réseau, qu’il a nié et tenté de masquer pendant longtemps… Les commentaires associés à AT&T sont édifiants… et il y a fort a parier qu’avec le rapprochement, le service client de T-Mobile qui est assez apprécié, soit mis au pas de celui d’AT&T.

Rapprochement loin d’être acquis

Beaucoup d’analystes aux Etats Unis s’inquiètent de cette opération. Om Malik, fin connaisseur des secteurs de la haute technologie aux Etats Unis énumère laconiquement tous ceux qui risquent de souffrir de ce rapprochement, à part les banquiers qui bien sur profiteront grassement de l’affaire et les responsables des sociétés impliquées qui touchent au passage pour avoir négocié un tel deal. Le diagnostic de Om Malik est sombre pour les consommateurs. Il n’y aura plus que 3 opérateurs sur le marché (AT&T/T-Mobile; Verizon et Sprint-Nextel) dont 2 dominants, alors que T-Mobile représentait une alternative et une force d’innovation entre les 2 dominants.

Il jouait un peu le rôle de Free en France… Non seulement le choix de service diminue, mais les prix vont augmenter rapidement précise-t-il. Pour donner le ton, AT&T ne vient-il pas de de limiter en volume l’usage de ses accès DSL résidentiels, et de créer un Net à péage.  L’opération doit maintenant passer devant la FCC et différentes instances anti-trust aux Etats Unis et il n’est pas dit qu’elle obtienne leur accord facilement.

L’ecosystème en souffrira aussi

Les fabricants de téléphone ont aussi du souci à se faire poursuit Om Malik, plus particulièrement Motorola et HTC qui fabriquent des téléphones GSM. Ils viennent juste de perdre un degré de liberté dans leur capacité de négocier les prix puisque maintenant, AT&T est le seul opérateur à utiliser GSM sur l’Amérique du Nord.  Verizon utilise une autre norme de téléphonie, le CDMA, incompatible aujourd’hui avec GSM.

La diversité des téléphones mis à disposition des utilisateurs risque aussi de se réduire considérablement. En matière de WiFi, T-Mobile avait une politique assez innovante d’accès à un grand nombre de hot spots publics, dans des restaurants, libriaires, aéroports, cafés et hôtels. Il fut le premier à offrir un service de roaming abordable à l’étranger pour ses abonnés. AT&T en est encore loin.

Vers un duopole

Om Malik ajoute que ce rachat entrainera presque immanquablement le rachat de Sprint-Nextel par Verizon, puisque Sprint-Nextel utilise aussi le CDMA, il est encore plus mal en point que ne l’est T-Mobile, mais il est assis sur un large portefeuille de fréquences, ce qui risque de faire monter les prix. Il constate aussi que Sprint et T-Mobile s’étaient souvent trouvés côte à côte face à Verizon et AT&T dans un certain nombre d’arbitrages de régulation. Sprint va maintenant se trouver complètement isolé… Il explique que les quelques petits opérateurs sans fil qui subsistent aux Etats Unis (Metro PCS, Cricket, US Cellular) ont intérêt à se regrouper pour garder une voix au chapitre.

Il mentionne enfin que Google, qui porte Android, risque aussi d’y perdre gros en capacité de négociation. Il est maintenant possible que fort de cette position dominante renforcée, AT&T décide de mettre en place une boutique d’applications pour ses mobiles et cherche a récupérer les bénéfices de la vente d’applications qui lui a été ravie par Apple. Cette démarche risque ainsi de crée d’importantes perturbations sur le marché qui pourraient conduire a une redistribution des cartes. Dans ce genre de mouvement, les dinosaures sont cependant rarement gagnants car si ils ont la puissance,  il leur manque la créativité et l’agilité.

La Neutralité du Net masque une nécessaire remise en question du modèle d’investissement des opérateurs

23 février 2011

Au Mobile World Congress de Barcelone (MWC 2011) la profusion de nouveaux appareils, smartphones, tablettes etc.. n’a fait qu’exposer la partie émergée de l’iceberg, celle immédiatement visible par le grand public. Bien naturellement, elle offre des innovations lui facilitant la vie, lui permettant de se divertir, de mieux travailler, de communiquer et de se déplacer plus facilement… grâce a des appareils plus petits, plus lisible, mieux connectés, plus intelligents et plus faciles à utiliser à tout instant. Cependant, le débat de fond était ailleurs que de savoir s Nokia se rapprochant de Microsoft allait présenter une troisième voie crédible et durable entre la domination d’Apple et la rapide montée en puissance d’Android. Ce dernier est visiblement le grand challenger sur le marché des systèmes d’exploitation pour les smartphones et tablettes.

Les infrastructures, partie immergée de l’iceberg de la téléphonie mobile

Du côté des réseaux, opérateurs et constructeurs vantaient les mérites de la technologie LTE, certains laissant croire que ce nouveau type de réseau de données mobiles fonctionne déjà régulièrement. D’abord, il ne s’agit que d’un réseau de données sur lequel le transport de la voix n’est pas encore résolu (entendez standardisé).

Ce sera bien sur de la voix sur IP. Il faudra donc attendre encore deux ou trois ans avant de voir les premiers vrais déploiements commerciaux du LTE complet, voix et données. Aujourd’hui, il n’existe aucun terminal LTE. La technologie n’est pas encore complètement au point pour être commercialisée de façon industrielle et les opérateurs restent très réticents à investir massivement dessus.

Parmi les conférences de MWC 2011, l’une à plus particulièrement retenu mon attention sur la saturation des réseaux mobiles et leur nécessaire migration vers des réseaux plus puissant : c’est celle de  Gabrielle Gauthey qui s’exprimait juste avant le keynote d’Eric Schmidt. Elle fut pendant 6 ans membre influent du collège de l’ARCEP et est aujourd’hui Senior Vice Présidente chargée des relations institutionnelles internationale de Alcatel Lucent. Elle parlait au nom d’Alcatel Lucent qui est un constructeur d’équipements LTE.

Une explosion des données mobiles qui n’avait pas été prévue

« Nous ne sommes encore qu’à l’aube de l’explosion des données sur les réseaux mobiles » dit-elle rappelant et commentant quelques chiffres connus des opérateurs, mais pas forcément admis par tous. « Le premier challenge est bien sur l’énorme explosion du mobile. Première rupture dont la magnitude et la rapidité n’a jamais été aussi importante, et que collectivement, nous n’avions absolument pas analysée ni prévue. En 1999 seulement une personne sur 6 avait un téléphone cellulaire, aujourd’hui 7 sur 10 en ont un et seulement 10 à 15 % de ces téléphone peuvent accéder à Internet. En 2015, 70% de ces téléphones mobiles auront accès à Internet. »

« Le trafic des données sera multiplié par 30 (voir 40 selon certains analystes) dans les 5 ans à venir. Là où aujourd’hui on a besoin en moyenne de 16 Megabits par seconde pour répondre à une concentration d’environ 400 smartphones au kilomètre carré dans une grande ville, il faudra dans 5 ans être capable d’offrir 2 Gigabits par seconde pour répondre à la demande de 13000 smartphones au kilomètre carré, si l’on admet qu’en temps normal à un instant donné, un appareil sur 5 présents est connecté au réseau…». On peut supposer que cette estimation est déjà bien en dessous de la réalité si les applications liées à la géolocalisation continuent de se développer sur les smartphones.

Un énorme besoin d’investissements

Ces constatations signifient que d’importants investissements seront nécessaires, plus particulièrement en Europe qui, selon Gabrielle Gauthey est aujourd’hui sensiblement à la traine dans le renouvellement de ses infrastructures mobiles. « La commission européenne, dit-elle, estime qu’en Europe nous aurons un besoin d’investissement de 300 milliards d’Euros dans les infrastructures numériques pour les 10 prochaines années dont une centaine de milliards pour les seuls réseaux mobiles.»

Mais les opérateurs téléphoniques, retranchés dans leur arrogance et leurs habitudes monopolistiques locales et séculaires campent donc sur des positions archaïques, très repliés sur eux-mêmes dans un univers de communication numérique dont ils ne comprennent pas bien la dynamique et les nouveaux mécanismes, pratiquant une innovation factice basée sur le discours et d’énormes moyens marketing mis en œuvre pour justifier ces politiques. Réticents d’investir dans de nouvelles infrastructures qui « profitent » à d’autres selon eux, ils cherchent à contrôler et à brider les données qui circulent sur leurs réseaux.

Stéphane Richard PDG d’Orange affirmait voici quelques mois « Il faudrait taxer Google et ces grands opérateurs de contenu pour permettre la mise à jour des réseaux des opérateurs et leur permettre de résister à cet afflux de données… ». Il achetait cependant (certains n’hésitent pas à dire: enterrait) récemment Deezer et DailyMotion, après les avoir longuement combattu.

L’innovation crée le trafic, mais elle ne vient pas des opérateurs téléphoniques

Pour Gabrielle Gauthey, le paysage et les usages des télécommunications ont radicalement et profondément changé en quelques années. L’écosystème dans son ensemble a subit une profonde et rapide mutation qui devrait « conduire les opérateurs à complètement revoir leurs modèles d’investissement ». L’un des aspects les plus discuté lors du MWC 2011 est l’impact des opérateurs dits « over the top », c’est à dire des grands opérateurs de contenu comme Google (YouTube) Facebook, Flicker, Twitter, Groupon et de certains fabricants de téléphone dont Apple et RIM. « C’est leur créativité et leurs innovations qui suscitent la grande majorité du trafic de données sur les réseaux des opérateurs mobiles » ajoute Gabrielle Gauthey.

Ces « over the top » s’infiltrent donc dans l’écosystème des opérateurs par les usages, mais ces derniers ne peuvent pas les contrôler pour autant car « le vieux business modèle de la vente de voix à la minute et à la distance, mis en oeuvre il y a un plus d’un siècle par Graham Bell, est devenu complètement obsolète. Il y a eu découplage entre le trafic et les revenus… Les opérateurs ont vu leurs marges baisser ce qui ne leur permet plus de financer les infrastructures réseaux à travers des business modèles tels qu’ils continuent de les pratiquer. » Il est donc temps que les opérateurs se penchent sur un renouvellement profond de leurs modèles, sous peine de continuer de perdre contrôle du marché au détriment des « over the top » qui dégagent d’importants cash flow et suscitent la demande.

Ce qui se cache derrière le débat sur la Neutralité du Net

« Le vrai challenge des opérateurs explique Gabrielle Gauthey, se cache derrière le débat sur la Neutralité du Net depuis quelques années. La neutralité du Net est apparue aux Etats Unis à la suite du procès intenté à Comcast et s’est ensuite étendue à l’Europe et au reste du monde au fur et à mesure que les données mobiles entrainaient une rapide saturation des réseaux. » Le monde du contenu, représenté par les opérateurs « over the top » et le monde des opérateurs téléphoniques se sont rejoints sur Internet, vecteur de distribution universel.

« Mais, précise Gabrielle Gauthey, ils ont des business modèles très différents et touchent des marchés différents, les « over the top sont globaux alors que les opérateurs de services sont généralement locaux. Pourtant, leurs futurs sont liés et tous ces acteurs sont devenus hautement interdépendants et interconnectés. Il faut une vision partagée pour assurer la mise en place  de la société numérique. Dans le monde IP (Internet Protocol), c’est le même réseau qui transporte la voix, les données et la vidéo. Mais ce monde s’est développé autour des données, sans le modèle standard d’interconnexion qui dans le monde de la voix  a permis de fournir une qualité de service égale de bout en bout sur les réseaux. Il n’existe pas de standard identique d’interconnexion des données qui permette de garantir une qualité de service sur les réseaux de données. »

« En même temps, poursuit-elle, l’exigence des utilisateurs en termes d’accès aux réseaux, de qualité de service, de bande passante, de sécurité et de fiabilité doit être valorisée, y compris par les opérateurs « over the top ». Tout le monde sait, plus particulièrement dans le monde mobile, que les applications vont faire face à des problèmes de performances sur les réseaux, mais rien n’en assure le contrôle et la régulation aujourd’hui. « Mais la Net Neutrality ne doit pas nous détourner du point le plus important et le plus urgent qui est celui d’accroitre la capacité des réseaux aussi vite que possible. »

Investir et partager pour accroitre la capacité des réseaux

Trois facteurs clés jouent sur la performance des réseaux. Ce sont le nombre de points hauts (le nombre d’antennes), le spectre de fréquence disponible et l’efficacité des technologies de transmission. « Le premier facteur précise Gabrielle Gauthey, conduira certainement à la densification des pico et femto cellules et à l’amélioration des connexions de backhaul. En effet, la fibre est l’avenir du sans fil. Mais le challenge est important à ce niveau là parce qu’il devient de plus en plus difficile de densifier le nombre d’antenne, particulièrement en milieu urbain. Il y a déjà là une première incitation pour les opérateurs à partager les points hauts, et même le backhaul dans certains cas. »

« Le spectre est le point le plus délicat, affirme-t-elle. Il faudra encore plus de fréquence pour satisfaire ces 13000 smartphones au km² dans 5 ans. Mais le spectre est limité, il n’y en aura pas assez pour tous. C’est une autre incitation pour les opérateurs à partager. Le partage du spectre de fréquence devient obligatoire dans la mesure ou la technologie LTE nécessite des canaux de 20Mhz pour fournir une bande passante capable de répondre à la demande croissante de données. »

« Nous pensons que conjointement à l’utilisation du LTE, les opérateurs doivent considérer le partage des fréquences et des réseaux comme la seule voie pour en améliorer la puissance et la capacité, plutôt que de s’engager dans la création de 3 ou 4 réseaux parallèles. Ils doivent maintenant considerer de nouveaux modèles d’investissement, aussi bien dans les zones urbaines que dans les zones rurales où la demande de bande passante est aussi très forte. » En d’autre termes, la concurrence par les réseaux, prônée par la commission européenne ne semble pas être la panacée qu’on attendait.

Fiers d’être des opérateurs de tuyaux

« Les opérateurs conclue-t-ell, doivent être fiers d’être des opérateurs de tuyaux, de tuyaux intelligents. La différenciation doit être cependant réalisée sous certaines conditions. Elle ne doit pas etre discriminante pour les utilisateurs, ni pour les concurrents et doit s’appuyer sur des accords entre les opérateurs et une grande transparence. Celle-ci doit permettre à tous, utilisateurs et opérateurs, de disposer d’informations quantifiées et claires autour du trafic sur le réseau, des pratiques de gestion des flux de contenu, de la capacité, de la bande passante réelle etc.., de façon à ce qu’il puissent prendre une décision d’achat appropriée, qui ne lie pas l’utilisateur à un opérateur… » Ces pratiques commencent à apparaitre dans les pays en voie de développement qui se séparent progressivement des vieux modèles d’opérateurs imposés par des siècles de pratiques coloniales. Enfin, Gabrielle Gauthey indique que les régulateurs dans le monde peuvent être les garants de ces dispositions, en s’attachant à répondre aux caractéristiques locales et en garantissant la transparence.

Très haut débit sans fil pour tous, le « SuperWifi » annoncé aux Etats Unis..

28 septembre 2010

La FCC américaine vient de libérer un ensemble de fréquences hertziennes inutilisées dans les interstices des chaines de télévision analogiques afin de les ouvrir à une utilisation sans licence préalable par des « terminaux mobiles » capables de télécharger des informations à très haut débit (80 Mbps et plus). Immédiatement appelé SuperWiFi parce que ces fréquences basses peuvent transporter des données à très haute vitesse sur des grandes distances (plusieurs kilomètres) à partir d’émetteurs de faible puissance, ce réseau couterait beaucoup moins cher à installer que les réseaux cellulaires 3G ou LTE, ne parlons pas des réseaux de fibre qui se cantonnent dans les zones denses aujourd’hui. Il serait plus puissant, capable de mieux pénétrer dans les bâtiments et serait ouvert à tous : particuliers, municipalités, communautés diverses, opérateurs… sans nécessité de posséder ou d’acheter une licence d’exploitation.

Inspiré du mode de fonctionnement du WiFi (qui rappelons le fut interdit à ses début pendant quelques temps en France), il serait basé sur des technologies nouvelles plus performantes, plus efficaces et moins chères dont les développements semblent déjà avancés aux Etats Unis… Le Chairman de la FCC, Julius Genachowski indiquait « Cette décision ouvre une nouvelle ère pour l’innovation technologique américaine. Nous savons d’expérience que ce spectre non licencié peut susciter des innovations énormément utiles. Par exemple, il y a des années, personne n’imaginait la manière d’utiliser du spectre de basse qualité inutilisé qualifié de « bande pourrie » lorsque la FCC a décidé de le libérer sans licence.  Le résultat fut une vague de technologies nouvelles… le Wifi qui est aujourd’hui une industrie de plusieurs milliards de dollars et une partie essentielle de l’écosystème de la mobilité ». Cette nouvelle approche permettrait de réaliser le très haut débit pour tous sans la fibre.

Un mouvement entamé il y a dejà 3 ans

Mais chaque fois que de nouvelles fréquences hertziennes sont libérées et destinées à être proposées au public pour créer de nouvelles infrastructures qui ne tombent pas à priori dans l’escarcelle des opérateurs en place, les boucliers se lèvent, surtout aux Etats Unis ou les lobbies des opérateurs sont extrêmement puissants et efficaces pour protéger leurs monopôles. Le WiFi en son temps a pris tout le monde par surprise et les opérateurs ont eu beaucoup de mal à le museler. Aujourd’hui, ils ne veulent pas se laisser prendre de nouveau avec ce super Wifi. Chacun sait en effet que ces monopoles historiques s’appuient sur les infrastructures pour verrouiller les consommateurs « ad vitam » chez le même opérateur, jusqu’à ce qu’une nouvelle technologie arrive, qu’ils refusent dans un premier temps et essaient de récupérer et de contrôler, ou même de tuer dans un deuxième temps (cf le WiMax).

Ce mouvement se fait sous le regard plus ou moins bienveillant des régulateurs (FCC, ARCEP, Ofcom, ORECE,  etc…) dont le rôle est de faciliter le développement des infrastructures et des usages sur des marchés réputés ouverts. C’est une des raisons pour lesquelles les opérateurs sont particulièrement averses à toute innovation technologique… (sauf au niveau du discours)… et c’est aussi la raison pourquoi ils voient d’un très mauvais œil l’annonce de ce « superWiFi » que tout le monde découvre aujourd’hui mais qui se prépare aux Etats Unis depuis déjà plusieurs années sous le terme de « White Spaces » ou encore « Fréquences Blanches ». Il est donc tout naturel que la FCC, dirigée de façon intelligente, s’oriente vers une mise à disposition non licenciée de ces fréquences, étant quasiment certaine que l’innovation viendra avec.

Que sont ces « bandes blanches » ?

A la fin de 2006 et au début 2007, plusieurs ingénieurs de sociétés de la Silicon Valley comme Google et autres grands de l’informatique ou d’internet se réunissaient pour discuter de ces fameuses fréquences blanches et finalement créent une alliance appelée « White Space Coalition » regroupant plusieurs poids lourds comme Dell, HP, Microsoft, Google, Intel, Philips, Earthlink et Samsung. L’objectif clairement affiché est de développer une technologie sans fil qui utilise des petites portions de bandes de fréquences de la Télévision Analogique dans les zones 54 – 698 MHz, pour transporter des données sans fil à très haut débit (80 mbps et au dessus). Les bandes de fréquences visées sont appelées « bandes blanches » ou « fréquences blanches » parce que ce sont des bandes inutilisées qui ont été mises en place pour éviter les interférences entre les canaux de télévision analogique (aujourd’hui en cours de disparition).

L’un des principaux problèmes de l’utilisation de ces fréquences blanches est posé par les interférences qui peuvent se produire avec les canaux de télévision existants. En octobre 2008, Google tenait une conférence sur ce thème dans ses locaux à Mountain View montrant l’intérêt de nouvelles technologies comme les radios cognitives qui permettent une gestion dynamique et flexible à basse puissance des fréquences vacantes.

L’une des difficultés de l’utilisation de ces fréquences blanche est qu’elles forment un véritable « gruyère » parce que ce sont des petites bandes de fréquence qui se trouvent entre des canaux de TV affectés à des endroits différents selon les régions. La technologie doit donc déterminer avec précision les canaux pré-existants et éviter les interférences locales. Le 5 novembre suivant, la FCC approuvait à l’unanimité l’idée de l’utilisation non licenciée des fréquences blanches, accompagnée d’un ensemble de recommandations sur la manière dont les appareils (TV Band Devices) doivent fonctionner pour éviter les interférences locales.

L’argument des interférences…

A peine la décision de la FCC était-elle prise en novembre 2008 que la NAB (National Association of Broadcasters) réagissait associée à l’Association for Maximum Service Télévision (MSTV) demandant à la FCC de revenir sur sa décision. Plainte était déposé devant la court d’Appel du District de Columbia mentionnant que l’utilisation des Fréquences Blanches conduirait à dégrader les services de Télévision. D’autres arguments étaient cités concernant les interférences possibles avec les fréquences audio utilisées par les micros dans les systèmes de sonorisation publique. La chanteuse américaine Dolly Parton, réquisitionnée par la NAB pour se faire l’avocat de la protection des fréquences blanches, perdait la bataille.

Microsoft, impliqué depuis le début dans ces bandes blanches, a mis en œuvre un prototype de réseau « superWifi » sur son vaste campus de Redmond et a testé les interférences possibles avec les dispositifs radio en place. Les ingénieurs de Microsoft ont développé des outils permettant d’identifier la présence de canaux audio utilisés au fur et à mesure que le terminal se déplace et d’éviter les interférences. L’installation mise en place avec seulement 2 stations a permis de couvrir la totalité du campus de Microsoft qui fait 250 hectares pour près de 200 bâtiments. Pour l’instant ce réseau est un prototype de laboratoire et Microsoft n’a pas indiqué son intention d’en faire un produit.

Les fréquences, un bien public…

Les fréquences hertziennes sont à la base des infrastructures de communication sans fil qui se développent depuis une bonne quinzaine d’années, qui sont aujourd’hui utilisées quotidiennement par des milliards d’utilisateurs pour téléphoner ou pour accéder à Internet sans fil, surtout depuis que les smartphones et les tablettes numériques se sont développés.

Historiquement, l’affectation des fréquences les plus attractives (dites en or) s’est faite au profit des technologies existantes à l’époque qui sont aujourd’hui quelque peu obsolètes et plutôt inefficaces en termes d’utilisation du spectre. Ces technologies, la télévision, la radio et la téléphonie cellulaire sont mises en oeuvre par des sociétés historiques qui détiennent des monopoles (de fait ou constitués) sur lesquelles elles sont assises confortablement grâce à la possession de ces fréquences. On a bien vu les difficultés qu’a soulevées l’attribution de la 4ème fréquence de téléphonie sans fil en France.

Que va faire l’ARCEP ?

La libération de nouvelles fréquences suscite toujours des ambitions chez des nouveaux entrants potentiels et des craintes des sociétés en place qui voient leur « legacy » devenir un véritable boulet s’ils n’investissent pas rapidement dans ces nouvelles technologies et ne répondent pas proprement aux nouveaux besoins qu’elles satisfont.  Ils cherchent donc à contrôler étroitement les affectations de nouvelles fréquences et l’innovation technologique. C’est probablement ce qui va se passer avec ce nouveau SuperWiFi.

C’est justement dans cette mesure que ce nouveau superWiFi est particulièrement intéressant parce qu’il élargira de façon importante la portée et la puissance du WiFi et ne sera pas, à priori, la propriété exclusive des opérateurs en place. Alors que les réseaux LTE représentent un investissement important pour les opérateurs, mais ne couvriront pas suffisamment de territoire avant une bonne quinzaine d’année à cause du lancinant problème des zones moins denses ou rurales dans lesquelles ils ne veulent pas investir, alors que les réseaux 3G sont surchargés et menacent de crouler sous la demande au fur et à mesure que les smartphones et les tablettes arrivent en masse sur le marché, le superWifi semble une opportunité incontournable.

L’ARCEP connait parfaitement ces bandes de « fréquences blanches ». L’Europe aussi, mais rien ne bouge encore de ce côté-là. Resteront-elles frileusement sur des positions prises? Par exemple en matière de WiMax,  interdire le roaming sous prétexte de prétendues interférences (et éviter une levée de bouclier de la part des opérateurs).  Ou bien prendront-elles rapidement des positions innovantes qui lèveront interdits et incertitudes sur ce superWiFi et permettrons à des développeurs et des industriels Français de se lancer dans cette nouvelle aventure… ?

WiMax, chronique d’une mort annoncée un peu vite

29 juillet 2010

HTC Evo 4G, premier telephone WiMax chez Sprint

Au début du mois de juillet, lors d’un meeting interne chez Intel Taiwan, Intel annonçait la fermeture de son « 4G WiMax Program Office». Repris par une publication locale, l’annonce était immédiatement transformée en annonce de la mort de WiMax suite à ce qui était appelé un retournement de position et un frein au soutien de Intel à l’industrie du WiMax. La nouvelle était ensuite reprise sans vérification dans la plupart des journaux dans le monde, annonçant la fin du WiMax, qui de toute façon était déjà en sursis…La messe était dite…

Une réponse de la part d’Intel

Connaissant l’implication d’Intel dans le WiMax, j’ai cherché à comprendre ce que signifiait cette annonce en allant rechercher un peu plus d’information à la source. Après tout, c’est bien le rôle du journaliste d’essayer de comprendre… J’ai donc posé la question à un de mes vieux amis qui travaille chez Intel. Je ne dirai pas son nom parce notre conversation n’était pas officialisée par les services de presse de la compagnie. « En fait me dit-il, le résultat de cette annonce est en fait pratiquement le contraire de ce qui a été écrit par la presse…Effectivement, nous avons stoppé le 4G WiMax Program Office au sein d’Intel, mais nous n’avons pas le moindre du monde arrêté le soutien à l’industrie du WiMax. »  Il m’indiquait que le jour même, Intel dans son blog officiel avait publiquement répondu à l’article paru en rectifiant plusieurs points, chose qui arrive très rarement chez le N° 1 des semi-conducteurs… (On ne se risque pas à répondre à la presse, sauf pour les cas d’urgence)…

WiMax couvre 800 millions de personnes dans le monde

L’article (en Anglais) publié sur le blog est assez clair et mentionne que le WiMax est aujourd’hui accessible par 800 millions d’utilisateurs dans 147 pays qui se trouvent dans une zone de couverture WiMax commerciale. Quelques douzaines de villes aux Etats-Unis (dont les plus importantes) font partie de la liste et même Taïwan dispose d’un réseau commercial WiMax nouvellement installé, accessible par plus de 3 millions de personnes. Est-aussi mentionné l’un des principaux fournisseurs de WiMax, la société chinoise Huawei qui déploie du WiMax dans 65 pays, ou encore Motorola qui a multiplié par 2 ses ventes de terminaux WiMax en 6 mois. Enfin, il précisait que plus de 200 PC portables d’une douzaine de constructeurs différents sont proposés sur le marché équipés d’une puce WiMax.

La start’up WiMax est mature

Mais alors, pourquoi arrêter le WiMax Program Office? « C’est ce qui a prêté à confusion me dit-il. » En effet, un peu plus loin dans le texte posté sur le blog, on peut lire : « Intel met en place des « Program Offices » pour faciliter la création, le support et mettre une technologie, un standard (et/ou de nouveaux clients) aussi rapidement que possible sur le marché. Nous avons une poignée de ce type de programme au sein de la compagnie. Par définition, ces « bureaux » sont temporaires.. Ils fonctionnent comme des start’up au sein de l’entreprise, ajoutait mon ami.

Il se passe que pour le WiMax, ce « bureau » a été formé il y a 4 ans et dans ce laps de temps, le standard est devenu complet : le test et le déploiement sur une grande échelle ont été accomplis (plus de 500 dans le monde) et quoi…, même un téléphone vraiment populaire parmi les autres appareil est arrivé sur le marché.Le groupe de standardisation a même identifié les spécifications enrichies de la nouvelle génération 802.16e.  Donc pour nous la mission de sortir le WiMax et de le mettre sur le marché est accomplie. Les gens qui travaillaient sur ce programme ont juste été recasés dans nous groupes de produit chez Intel.” (A noter que l’ARCEP en France ignore toujours superbement le 802.16e qui permet de faire du WiMax Mobile ou nomade et non plus fixe.).

Un changement d’organisation tous les mois

La start’up WiMax a donc grandit et les produits WiMax sont désormais vendus aux sein des différentes unités d’Intel, parce qu’il s’agit de volumes maintenant non négligeables qui s’insèrent parmi les autres… Difficile transition dans la mesure où les vendeurs d’Intel sont rémunérés à la commission comme tout le monde et risquent de moins pousser ce produit qui a été pas mal décrié et qui ne bénéficie pas d’une grosse côte dans le grand public. Le blog reconnait que ce changement d’organisation, comme il y en a tous les mois chez Intel (cela fait 20 ans que je n’essaie plus de comprendre la structure organisationnelle d’Intel), a été plutôt mal communiqué.

Le problème est que depuis ses début, WiMax a souffert d’une assez  mauvaise communication, aussi bien de la part d’Intel que de la part de ses principaux « souteneurs »…souvent trop ambitieux, obligés de déchanter devant la réalité de la technique. Il est surtout mal accepté par les opérateurs de télécommunications qui préfèrent un standard issus de leurs rangs et non pas un standard ouvert venu d’un monde qui n’est pas le leur. Espérons que son entrée dans l’âge adulte lui apportera un deuxième souffle en matière de communication, alors qu’il est  la première technologie 4G disponible et livrée sur le marché de la téléphonie sans fil.

MWC 2010: De la théorie à la pratique du bordel ambiant…

21 février 2010

Le froid et la pluie inhabituels qui ont régné la semaine dernière sur Barcelone pendant le Mobile World Congress sont allés de pair avec l’atmosphère de douche écossaise qui s’est abattu sur le vaste écosystème de la mobilité tout au long de la manifestation.  Les opérateurs, les constructeurs et les développeurs d’applications ont déversé beaucoup de nouveautés, chaque nouvelle annonce allant en général à l’opposé des autres faites précédemment, à un public qui ne savait plus où donner de la tête, cherchant à se raccrocher à quelque grande tendance…

A travers toutes ces annonces, intéressantes pour un grand nombre d’entre elles pour peu qu’on les prenne isolément, ce sont surtout des questions qui surgissent si l’on cherche à trouver un fil conducteur. C’est pourquoi je me suis souvenu du livre de Roland Moreno, inventeur de la carte à puce, invention remarquable qui n’est toujours pas utilisée comme elle le devrait. Je vous conseille de lire les mises à jours du « la Théorie du Bordel Ambiant » sur le site de Roland Moreno, elles s’orientent vers la « Pratique du Bordel Ambiant », sachant qu’il est toujours utile et nécessaire le lier la pratique à la théorie… C’est vraiment d’actualité, et Roland Moreno est un inconditionnel d’Apple qui était absent du Mobile World Congess, mais tellement présent en même temps….

Une guerre des OS, un marché fragmenté…

C’est vers le secteur des OS mobiles et du développement des applications que se sont principalement centrées les annonces, avec différentes approches selon ceux qui les ont proposées. Bien sûr, Apple n’était pas présent à cette manifestation. Son approche totalement verticale et fermée a permis de proposer un produit homogène, très attrayant pour le consommateur même si il est cher, de créer un marché des applications qui s’est développé sur une audience devenue rapidement respectable.

Cependant, les opérateurs haïssent Apple parce qu’il leur rafle les opportunités d’offre de services en allant chercher lui-même le contenu qu’il contrôle et il contrôle aussi lui-même les applications sur l’appareil. De plus, progressivement, l’exclusivité dont disposaient certains opérateurs disparait sous la pression des régulateurs. D’autre part l’utilisation de l’iPhone à mis plus d’un réseau d’opérateur à genoux, ce qui n’était pas vraiment prévu… Avec Apple, les opérateurs ne sont plus totalement maîtres sur ce qu’ils estiment être leur pré carré…

Les opérateurs et les constructeurs de téléphone (dont principalement Motorola) ont donc accueilli très favorablement l’arrivée d’Android, une plateforme à priori libre, ouverte et gratuite dont la démarche est complètement à l’opposée d’Apple. Mais à l’inverse, elle provoque plus de fragmentation dans la mesure où chacun utilise ce noyau Open Source à sa manière et peut ajouter ce qu’il veut. La boutique d’applications mobiles de Google est aussi plutôt perméable.

Dans la foulée, Samsung, sur la base de sa base installée de deuxième constructeur mondial de téléphone annonce son propre OS appelé Bada, dont l’objectif est d’homogénéiser ses propres terminaux. Il est porté par son nouveau téléphone Wave et la future Samsung App store. Les développeurs d’applications vont-ils s’intéresser à Bada comme ils se sont jetés sur l’iPhone OS ? Apple a toujours été innovant dans le logiciel (OS et applications) depuis 30 ans…Samsung n’a guère d’expérience dans ce secteur, un critère qui compte beaucoup.

Motorola quant à lui a en grande partie misé son renouveau sur Android. Son interface appelée Blur a reçu un accueil plutôt favorable dans la mesure où il apporte un assez grand nombre de caractéristiques que l’on trouve sur l’iPhone, notamment en ce qui concerne les réseaux sociaux. Le futur de Motorola dans la téléphonie cellulaire semble s’éclaircir un peu depuis l’arrivée du nouveau co-CEO, Sanjay Jha, chargé de toute l’activité mobilité.

RIM, qui occupe la deuxième place sur le marché des smartphones avec son Blackberry, met de l’eau dans son vin et cherche à conserver son rôle mixte de fournisseur d’une plateforme de données et de fabricant de téléphone. Il offre désormais gratuitement son serveur aux PME, rendant ainsi gratuite la mise en œuvre des services du Blackberry dans les petites entreprises jusqu’à une cinquantaine de terminaux.

Microsoft crée la surprise

La dessus vient Microsoft qui prend tout le monde à contre pied avec Windows Mobile 7. Grâce à une interface entièrement redessinée et une définition très précise et rigoureuse de la plateforme matérielle sur laquelle cet OS fonctionnera, Microsoft joue la synergie entre les 3 écrans le PC, la TV (avec le Zune et la Xbox) et le mobile… Grace à Internet et les outils d’Azure, les trois sont interconnectés sur le Cloud. Après la récente annonce de Windows 7, l’accord entre Bing et Yahoo, Windows Mobile 7 et le Cloud, les utilisateurs disposeront des mêmes mécanismes de recherche, de synchronisation, de messagerie, d’accès aux réseaux sociaux et de gestion, des mêmes applications de productivité.

Bien tentant pour les entreprises si l’outil mobile n’est plus la charrue qu’était Windows Mobile 6.5. Avec une interface très attractive et plus simple pour le consommateur, des appareils plus puissants, Microsoft aimerait bien faire entrer son téléphone dans l’entreprise, face au Blackberry qui y joue un rôle majeur. A noter, Microsoft s’est allié avec Qualcomm pour définir le cœur de la plateforme mobile. Intel ne fait plus partie du jeu, il s’est allié avec Nokia…

Le torchon brule-t-il entre les 2 ex-alliés… ? Qualcomm est un ennemi intime d’Intel. Microsoft joue le jeu des fabricants et des opérateurs en leur permettant de se différencier et en leur permettant de véhiculer des contenus exclusifs. Il a passé des accords spéciaux (non divulgués) avec deux des principaux vecteurs du succès d’Apple, Orange et AT&T… Mais il faudra attendre la fin de l’année pour en savoir plus.

Nokia segmente son approche OS pour homogénéiser la plateforme… !!

Le numéro un des constructeurs de téléphone annonçait son alliance avec Intel, venu à la rescousse pour renforcer le haut de gamme de la marque. Son développement sur le marché américain reste toutjours un problème majeur pour la compagnie Finlandaise. La pateforme Meego est la réunion de Maemo et de Moblin, un OS linux Mobile développée par Intel. Nokia utilise des composants Open Source dans son OS pour en faire baisser le coût et pour faciliter la mise en place d’outils de développement cross plateforme.

Trois plateformes subsistent chez Nokia, La série 40 pour l’entrée de gamme, Symbian qui représente la majorité de la base installée et Meego. Cette dernière est destinée à supporter la nouvelle stratégie d’intégration de services autour de OVI. Nokia met en place une stratégie de développement de plateforme de services OVI Maps, OVI Mail, OVI Store, OVI Music, OVI Lifestyle, OVI Money comme autant d’infrastructures qui pourront être utilisées par les opérateurs pour se différencier et leur permettra de monétiser du contenu exclusif, local ou autre.

Pour Nokia, avoir rendu gratuit l’accès à la navigation autour de Navteq semble avoir été une décision stratégique clé dans la mesure où OVI Maps servira de base à un système de monétisation de la publicité localisée. « La navigation est au cœur de notre stratégie de services, dit Michael Halbherr, VP OVI expérience chez Nokia. OVI Map nous permet de disposer d’une plateforme indexée très puissante et riche en possibilités. Les opérateurs ne sont pas sur le marché de la navigation, en revanche, ils  profiteront de la plateforme. »

Quel rôle pour les opérateurs sur le marché ?

Tout d’abord, ce salon, à travers le keynote de Eric Schmidt, CEO de Google et surtout dans la session de questions réponses qui l’a suivi, à très clairement posé la question du rôle des opérateurs. Jusqu’où veulent-ils aller… Tout le monde de la mobilité le sait déjà : leur objectif est de maitriser la chaine de valeur du contenu à l’utilisateur final… Jusqu’où peut-on (ou doit-on) les laisser aller? Le débat est maintenant ouvert à l’issue d’un Keynote très visuel où au passage on apprenait que désormais, les téléphones sous Android pourront pleinement accéder aux sites développés en Adobe Flash (ce qui n’est toujours pas le cas sur les iPhones)…

Eric Schmidt a du essuyer une salve de questions plutôt agressives concernant le récent investissement de Google pour fibrer jusqu’à 500000 foyers aux Etats-Unis. En effet, pourquoi donc une société internet, dont la fortune repose sur la publicité sur le Web, se lance-t-elle dans la mise en place d’un réseau d’infrastructure, qui visiblement n’est pas son métier, alors qu’un opérateur (parmi tant d’autres) dont le cœur de métier est de poser et d’opérer des tuyaux, a mis plus 3 ans pour se décider à installer de la fibre dont tout le monde sait depuis des lustres que c’est l’infrastructure dont on a besoin… ?

Serait-ce un pur hasard que Google, dont l’activité repose sur la libre circulation d’un plus grand nombre de flux variés, fixes ou mobiles, sur Internet, craigne que ceux qui possèdent des infrastructures n’en restreignent l’utilisation et la portée pour préserver le principal mécanisme de leur monopole. Le principal grief des opérateurs (anciens monopoles d’état devenus monopoles privés) contre Google est en fait de voir celui-ci échapper à leur pouvoir, bien que son business soit entièrement et principalement basé sur les réseaux dont ils ont à assurer la plus grosse partie des investissements et du support. Non seulement ils n’ont guère de prise sur Google, mais en plus ce dernier rafle la quasi-totalité du marché de la publicité sur Internet, sur lequel ils aimeraient bien mettre la main. C’est un monopole contre un autre disent certains… Mais Google est-il véritablement un monopole qui verrouille le consommateur comme les opérateurs le font avec leur réseau d’accès… ?

Eric Schmidt semble avoir une idée assez claire sur la manières dont les opérateurs peuvent investir dans les réseaux et bénéficier d’un retour sur investissement à travers certains services d’infrastructure autre que le simple fait de posséder des tuyaux qui transportent des données. « Le marché est assez grand et il y a de la place pour tout le monde« , dit-il, affirmant que Android équipe plus de 60000 téléphones vendus chaque jours. Il répondait indirectement aux remarques de Vittorio Colao, CEO de Vodafone qui très clairement en appelait à ses collegues opérateurs du monde entier pour bâtir (verrouiller) un business modèle autour les services mobiles avant que Google ne le fasse.

Les réseaux tiendront-ils la charge ? Une certaine opacité de gestion… !

Il est évident que les opérateurs (plus particulièrement les opérateurs historiques)  jouent un jeu dangereux avec la manière dont ils gèrent la bande passante et la capacité de leurs réseaux en investissant juste ce qu’il faut pour offrir juste en dessous de la demande prévue, maintenant ainsi la pression sur les prix, les consommateurs, les offreurs de services, etc…. En effet, ils partent du principe qu’une « saine » gestion de la rareté de la bande passante (aussi bien dans le fixe que dans le mobile) est un point clé de leur pouvoir. Ils misent sur l’esprit de corps des opérateurs et les oligopoles de fait (bien que surveillé de prêt en Europe et un peu plus aux Etats-Unis) pour éviter de se voir déborder par un concurrent inattendu.

Seule la France, grâce à un régulateur obstiné, a réussi à desserrer un peu l’étau. Seulement, Apple leur a offert une carotte sur laquelle ils se sont jetés, sans voir le bâton qui allait leur tomber sur le nez. L’iPhone a tout simplement fait exploser les réseaux qui n’étaient pas prêts de supporter une telle demande de données. Aux Etats-Unis, le phénomène est apparu clairement à propos de la couverture et de nombreuses défaillances dans les zones urbaines autour du réseau AT&T qui a été assez bête de faire une campagne publicitaire, plutôt ridicule, provoquant même une vive réaction de son principal concurrent Verizon.

En France, tous les opérateurs sentent passer le vent du boulet, mais rien ne filtre sur les incidents, les utilisateurs Français étant plus intéressés par le moral interne de l’entreprise France Télécom que par leur difficultés d’accéder à Internet avec leur iPhone. Les réseaux cellulaires sont à bout de souffle pour ce qui concerne les données et les nouveaux smartphones qui ont été annoncés à MWC 2010 ne vont certainement pas arranger les choses.

La migration vers le LTE n’est pas encore engagée malgré quelques expérimentations, mais il semble que le premier usage du LTE sera centré sur « les données », alors même que les combinés LTE sont encore très loin d’être prêt. On verra donc des clés ou des boitiers LTE bien avant de voir des téléphones LTE… D’ores et déjà, on voi apparaitre des clés duales, compatible 2G, 3G et LTE. Samsung, Huawei et Alcatel sont les fournisseurs de ces clés.

Plusieurs sociétés vues à la conférence, proposent des solutions d’attente aux opérateurs, basées sur des solutions sans fil point à point dans les fréquences hautes (à base de WiMax pour certains) qui viennent soulager les réseaux des opérateurs dans les zones fortement sollicitées. La santé des réseaux cellulaires est une affaire publique, elle concerne la vie quotidienne de tous. Il serait souhaitable que les opérateurs communiquent plus et mieux sur les incidents qu’ils rencontrent et les remèdes qu’ils y apportent.

Pour le bien du consommateur ?

Eric Schmidt terminait son intervention sur cette note positive : « Le scénario le plus probable aujourd’hui est que le nombre de plateforme se multiplie, je ne sais pas combien de temps cela va durer avant que le marché ne se concentre sur un plus petit nombre de plateformes », mais il précisait :  « La compétition telle que nous la voyons maintenant avec beaucoup d’acteurs sur le marché bénéficie très très largement à l’utilisateur final. » Faut-il le croire sur parole ? Cette année apportera certainement des éclaircissements sur la question.