Archive for the ‘Television’ category

On se fait une toile sur Facebook ?

9 mars 2011

Décidément, Facebook mène sa stratégie d’infrastructure à toute vitesse en offrant toujours plus d’accès à des nouveaux services. Aujourd’hui, le géant virtuel de Palo Alto vient d’ajouter la possibilité de streamer des films. Pour 3 dollars, vous avez 48 heures pour regarder ce film sur votre ordinateur… Un seul film au catalogue, « Dark Knight » de Warner Bros pour l’instant, mais rapidement la bibliothèque de film visibles va s’étoffer.

Le cinema chez soi tous les jours du mois pour le prix d’une place dans une salle

L’idée n’est pas nouvelle et la seul innovation réside dans le fait que cette possibilité arrive chez Facebook et risque de se propager rapidement dans d’autres parties du monde. Aux Etats Unis, Netflix connait un énorme succès en permettant à quiconque de regarder la TV (qui est payante aux US) et de regarder en streaming n’importe quel film d’une imposante bibliothèque accessible en libre service pour 7,99$ par mois. L’utilisateur peut utiliser sa télévision avec une Wii, une PSP ou une Xbox, aussi bien que le browser de son PC connecté sur ADSL.

Chez les enfants ou les jeunes adultes américains, la grande mode est d’utiliser l’iPad pour regarder des films à la maison sur Netflix, ou encore la télévision,  en restant connecté par WiFi tout en se baladant comme ils veulent dans la maison, le jardin, aller au bord de la piscine ou même aux toilettes… Pour 2 dollars de plus par mois, Netflix offre d’envoyer des DVD, un par un, en nombre illimité sur un mois, choisis dans une plus large sélection de films…

Aujourd’hui, ces possibilités ne sont pas accessibles en France, mis a part quelques sites chers et mal fichus, parce que les ayants droit, les chaines de TV, les opérateurs internet, les salles de cinéma (la distribution) et les Hadopistes intégristes s’y opposent mais ils s’étonnent ensuite de la piraterie….  La pression mise par l’arrivé du streaming vidéo sur Facebook bousculera-t-elle ces stupides attitudes ?

Très haut débit sans fil pour tous, le « SuperWifi » annoncé aux Etats Unis..

28 septembre 2010

La FCC américaine vient de libérer un ensemble de fréquences hertziennes inutilisées dans les interstices des chaines de télévision analogiques afin de les ouvrir à une utilisation sans licence préalable par des « terminaux mobiles » capables de télécharger des informations à très haut débit (80 Mbps et plus). Immédiatement appelé SuperWiFi parce que ces fréquences basses peuvent transporter des données à très haute vitesse sur des grandes distances (plusieurs kilomètres) à partir d’émetteurs de faible puissance, ce réseau couterait beaucoup moins cher à installer que les réseaux cellulaires 3G ou LTE, ne parlons pas des réseaux de fibre qui se cantonnent dans les zones denses aujourd’hui. Il serait plus puissant, capable de mieux pénétrer dans les bâtiments et serait ouvert à tous : particuliers, municipalités, communautés diverses, opérateurs… sans nécessité de posséder ou d’acheter une licence d’exploitation.

Inspiré du mode de fonctionnement du WiFi (qui rappelons le fut interdit à ses début pendant quelques temps en France), il serait basé sur des technologies nouvelles plus performantes, plus efficaces et moins chères dont les développements semblent déjà avancés aux Etats Unis… Le Chairman de la FCC, Julius Genachowski indiquait « Cette décision ouvre une nouvelle ère pour l’innovation technologique américaine. Nous savons d’expérience que ce spectre non licencié peut susciter des innovations énormément utiles. Par exemple, il y a des années, personne n’imaginait la manière d’utiliser du spectre de basse qualité inutilisé qualifié de « bande pourrie » lorsque la FCC a décidé de le libérer sans licence.  Le résultat fut une vague de technologies nouvelles… le Wifi qui est aujourd’hui une industrie de plusieurs milliards de dollars et une partie essentielle de l’écosystème de la mobilité ». Cette nouvelle approche permettrait de réaliser le très haut débit pour tous sans la fibre.

Un mouvement entamé il y a dejà 3 ans

Mais chaque fois que de nouvelles fréquences hertziennes sont libérées et destinées à être proposées au public pour créer de nouvelles infrastructures qui ne tombent pas à priori dans l’escarcelle des opérateurs en place, les boucliers se lèvent, surtout aux Etats Unis ou les lobbies des opérateurs sont extrêmement puissants et efficaces pour protéger leurs monopôles. Le WiFi en son temps a pris tout le monde par surprise et les opérateurs ont eu beaucoup de mal à le museler. Aujourd’hui, ils ne veulent pas se laisser prendre de nouveau avec ce super Wifi. Chacun sait en effet que ces monopoles historiques s’appuient sur les infrastructures pour verrouiller les consommateurs « ad vitam » chez le même opérateur, jusqu’à ce qu’une nouvelle technologie arrive, qu’ils refusent dans un premier temps et essaient de récupérer et de contrôler, ou même de tuer dans un deuxième temps (cf le WiMax).

Ce mouvement se fait sous le regard plus ou moins bienveillant des régulateurs (FCC, ARCEP, Ofcom, ORECE,  etc…) dont le rôle est de faciliter le développement des infrastructures et des usages sur des marchés réputés ouverts. C’est une des raisons pour lesquelles les opérateurs sont particulièrement averses à toute innovation technologique… (sauf au niveau du discours)… et c’est aussi la raison pourquoi ils voient d’un très mauvais œil l’annonce de ce « superWiFi » que tout le monde découvre aujourd’hui mais qui se prépare aux Etats Unis depuis déjà plusieurs années sous le terme de « White Spaces » ou encore « Fréquences Blanches ». Il est donc tout naturel que la FCC, dirigée de façon intelligente, s’oriente vers une mise à disposition non licenciée de ces fréquences, étant quasiment certaine que l’innovation viendra avec.

Que sont ces « bandes blanches » ?

A la fin de 2006 et au début 2007, plusieurs ingénieurs de sociétés de la Silicon Valley comme Google et autres grands de l’informatique ou d’internet se réunissaient pour discuter de ces fameuses fréquences blanches et finalement créent une alliance appelée « White Space Coalition » regroupant plusieurs poids lourds comme Dell, HP, Microsoft, Google, Intel, Philips, Earthlink et Samsung. L’objectif clairement affiché est de développer une technologie sans fil qui utilise des petites portions de bandes de fréquences de la Télévision Analogique dans les zones 54 – 698 MHz, pour transporter des données sans fil à très haut débit (80 mbps et au dessus). Les bandes de fréquences visées sont appelées « bandes blanches » ou « fréquences blanches » parce que ce sont des bandes inutilisées qui ont été mises en place pour éviter les interférences entre les canaux de télévision analogique (aujourd’hui en cours de disparition).

L’un des principaux problèmes de l’utilisation de ces fréquences blanches est posé par les interférences qui peuvent se produire avec les canaux de télévision existants. En octobre 2008, Google tenait une conférence sur ce thème dans ses locaux à Mountain View montrant l’intérêt de nouvelles technologies comme les radios cognitives qui permettent une gestion dynamique et flexible à basse puissance des fréquences vacantes.

L’une des difficultés de l’utilisation de ces fréquences blanche est qu’elles forment un véritable « gruyère » parce que ce sont des petites bandes de fréquence qui se trouvent entre des canaux de TV affectés à des endroits différents selon les régions. La technologie doit donc déterminer avec précision les canaux pré-existants et éviter les interférences locales. Le 5 novembre suivant, la FCC approuvait à l’unanimité l’idée de l’utilisation non licenciée des fréquences blanches, accompagnée d’un ensemble de recommandations sur la manière dont les appareils (TV Band Devices) doivent fonctionner pour éviter les interférences locales.

L’argument des interférences…

A peine la décision de la FCC était-elle prise en novembre 2008 que la NAB (National Association of Broadcasters) réagissait associée à l’Association for Maximum Service Télévision (MSTV) demandant à la FCC de revenir sur sa décision. Plainte était déposé devant la court d’Appel du District de Columbia mentionnant que l’utilisation des Fréquences Blanches conduirait à dégrader les services de Télévision. D’autres arguments étaient cités concernant les interférences possibles avec les fréquences audio utilisées par les micros dans les systèmes de sonorisation publique. La chanteuse américaine Dolly Parton, réquisitionnée par la NAB pour se faire l’avocat de la protection des fréquences blanches, perdait la bataille.

Microsoft, impliqué depuis le début dans ces bandes blanches, a mis en œuvre un prototype de réseau « superWifi » sur son vaste campus de Redmond et a testé les interférences possibles avec les dispositifs radio en place. Les ingénieurs de Microsoft ont développé des outils permettant d’identifier la présence de canaux audio utilisés au fur et à mesure que le terminal se déplace et d’éviter les interférences. L’installation mise en place avec seulement 2 stations a permis de couvrir la totalité du campus de Microsoft qui fait 250 hectares pour près de 200 bâtiments. Pour l’instant ce réseau est un prototype de laboratoire et Microsoft n’a pas indiqué son intention d’en faire un produit.

Les fréquences, un bien public…

Les fréquences hertziennes sont à la base des infrastructures de communication sans fil qui se développent depuis une bonne quinzaine d’années, qui sont aujourd’hui utilisées quotidiennement par des milliards d’utilisateurs pour téléphoner ou pour accéder à Internet sans fil, surtout depuis que les smartphones et les tablettes numériques se sont développés.

Historiquement, l’affectation des fréquences les plus attractives (dites en or) s’est faite au profit des technologies existantes à l’époque qui sont aujourd’hui quelque peu obsolètes et plutôt inefficaces en termes d’utilisation du spectre. Ces technologies, la télévision, la radio et la téléphonie cellulaire sont mises en oeuvre par des sociétés historiques qui détiennent des monopoles (de fait ou constitués) sur lesquelles elles sont assises confortablement grâce à la possession de ces fréquences. On a bien vu les difficultés qu’a soulevées l’attribution de la 4ème fréquence de téléphonie sans fil en France.

Que va faire l’ARCEP ?

La libération de nouvelles fréquences suscite toujours des ambitions chez des nouveaux entrants potentiels et des craintes des sociétés en place qui voient leur « legacy » devenir un véritable boulet s’ils n’investissent pas rapidement dans ces nouvelles technologies et ne répondent pas proprement aux nouveaux besoins qu’elles satisfont.  Ils cherchent donc à contrôler étroitement les affectations de nouvelles fréquences et l’innovation technologique. C’est probablement ce qui va se passer avec ce nouveau SuperWiFi.

C’est justement dans cette mesure que ce nouveau superWiFi est particulièrement intéressant parce qu’il élargira de façon importante la portée et la puissance du WiFi et ne sera pas, à priori, la propriété exclusive des opérateurs en place. Alors que les réseaux LTE représentent un investissement important pour les opérateurs, mais ne couvriront pas suffisamment de territoire avant une bonne quinzaine d’année à cause du lancinant problème des zones moins denses ou rurales dans lesquelles ils ne veulent pas investir, alors que les réseaux 3G sont surchargés et menacent de crouler sous la demande au fur et à mesure que les smartphones et les tablettes arrivent en masse sur le marché, le superWifi semble une opportunité incontournable.

L’ARCEP connait parfaitement ces bandes de « fréquences blanches ». L’Europe aussi, mais rien ne bouge encore de ce côté-là. Resteront-elles frileusement sur des positions prises? Par exemple en matière de WiMax,  interdire le roaming sous prétexte de prétendues interférences (et éviter une levée de bouclier de la part des opérateurs).  Ou bien prendront-elles rapidement des positions innovantes qui lèveront interdits et incertitudes sur ce superWiFi et permettrons à des développeurs et des industriels Français de se lancer dans cette nouvelle aventure… ?

Google et Verizon règlent son compte à la Neutralité du Net

9 août 2010

D’un côté le vieux monde des opérateurs et des ayants droit, de l’autre le nouveau monde du Net de la dématérialisation, de la consommation sans intermédiaire. La ligne de démarcation entre les deux s’appelle aujourd’hui « neutralité du Net ». Une tentative à l’initiative de la FCC  pour « concilier » ces deux mondes a échoué la semaine dernière aux Etats Unis alors que Google et Verizon se sont finalement engagés unilatéralement dans une proposition commune, qui fait froncer quelques sourcils. Les deux géants ont en effet signé ce lundi une proposition commune de cadre législatif, ni plus ni moins, sur la manière de gérer les priorités de circulation sur le Net en fonction des types de données. Il est assez peu probable que la FCC se réjouisse de cette proposition tramée à son nez et à sa barbe par les deux sociétés.

Confrontation entre deux visions de la société industrielle

Depuis plusieurs mois,  voire quelques années, le torchon brule entre ces deux mondes qui semblent participer d’une même évolution, mais chacun appuyé sur des stratégies, des organisations, des fonctionnements, des comportements et surtout des business modèles différents. Deux mondes industriels sont aujourd’hui en pleine confrontation  autour d’Internet pour asseoir et mettre en œuvre chacun une nouvelle vision de la société industrielle. L’une basée sur un modèle ancien, cherche à digérer et intégrer Internet,  l’autre, née d’Internet  où elle trouve ses racines, est en création autour de quelques modèles très dynamiques, mais encore fragiles. Sur la base de ce qui s’est passé au cours de ces 10 dernières années autour d’Internet, c’est aux Etats Unis que se développe cette confrontation et c’est probablement aux Etats Unis que s’en dérouleront les principales étapes. Elle est aujourd’hui cristallisée  autour de la neutralité du Net mais elle cache des enjeux à court et long terme bien plus importants.

La Neutralité du Net, un symbole plus qu’une définition

Si la Neutralité du Net est aujourd’hui un thème qui compte un peu plus aux yeux du grand public en général peu capable de se mobiliser sur des thèmes complexes, elle pourrait  devenir le symbole  de cette confrontation/mutation qui oppose maintenant l’économie traditionnelle et l’économie Internet, encore plus que jamais alors que la crise commence à s’estomper. Mais comme chaque fois que l’on aborde les symboles, les manipulations et récupérations en tous genres sont faciles… Il semble donc pour l’instant inutile de définir la neutralité du net et de discuter pour savoir qui la respecte ou pas. En effet, elle se crée et évolue au fur et à mesure que se déroule la confrontation, tout comme une ligne de faille entre deux plaques tectoniques se modifie au fur et à mesure que ces deux plaques s’imbriquent l’une dans l’autre. Il vaut mieux pour l’instant s’intéresser aux plaques tectoniques et aux mouvements qu’elles opèrent.

Un enjeu de taille

A la fin du mois de juin dernier, la FCC américaine annonçait avoir suscité une discussion entre les lobbyistes des 2 opérateurs américains AT&T et Verizon, de Google, de Skype, rejoints par quelques autres acteurs comme Comcast, Microsoft, Intel, etc… . L’objectif, annoncé par Julius Genachowski , Chairman du régulateur, étant d’essayer de trouver un accord qui conduise à une sorte de reconnaissance juridique de la Neutralité du Net, en d’autre termes de mettre en place un cadre qui décrive les grandes lignes de la gestion du trafic des données sur les réseaux. L’enjeu est de taille puisqu’il s’agit, ni plus ni moins, de jeter les bases des fondations du fonctionnement  de l’économie sur Internet aux Etats Unis, cadre qui risque d’être adopté dans le monde entier par la suite.

Un obstacle sur l’agenda de la FCC

En octobre dernier, dans un document préparatoire de plus de 100 pages, la FCC définissait un certain nombre de règles se posant comme les éléments constitutifs de la Neutralité des réseaux. Ce document était mis en discussion public jusqu’au 26 avril 2010.  Mais avril, la FCC voyait son agenda remis en question et ses efforts réduits à néant par une décision de la cours d’Appel du District de Columbia qui rejetait une décision de la FCC, prise en 2008, condamnant  Comcast pour avoir entravé la circulation des échanges de données pair à pair sur son réseau. La cours d’Appel affirme purement et simplement que la FCC a outrepassé ses droit en s’occupant de circulation des données sur les réseaux sachant que les réseaux haut débit son classés « services d’information » qui ne relèvent pas de la régulation sur la téléphonie . Ne comptant pas faire appel ni demander au congrès de lui attribuer les compétences, la solution restante pour la FCC semblait être de reclassifier le haut débit comme des services téléphoniques, une démarche longue et risquée qui n’était pas envisageable tel quel. Appuyé par son conseil juridique, le patron de la FCC adoptait alors une autre stratégie, « une troisième voix » consistant à envisager une reclassification partielle (quelques mesures assez techniques) permettant à la FCC de finalement s’occuper du haut débit et pousser les principaux acteurs à négocier un accord qui puisse ensuite faire jurisprudence, un compromis entre les dispositions du Communication Act de 1996 et la décision Comcast. Mais il semble qu’il y ait eu quelques dérapages imprévus.

La troisième voix, stratégie de dernière heure…

Les négociations commencèrent donc fin juin dans la joie et la bonne humeur, saluées par une presse enthousiaste louant la troisième voix. Mais déjà, les voix de la CTIA (ancienne Cable and Television Industry Assciation devenue The wireless Association) dirigée par Steve Largent, un ancien Quarter Back de Football Américain, et de quelques organismes liés à la protection du consommateur, s’élevaient pour des raisons complètement opposées. Le premier cherchant à protéger les intérêts des fabricants averses à toute ingérence du gouvernement dans les affaires économiques (on a vu ce que cela a donné dans le secteur de la finance.. !) et les autres comme Free Press, New America Foundation, Media Access Project et Public Knowledge qui demandent que le public et les consommateurs soient impliqués dans ces négociations qui se déroulent à huit clos et pour qui elles apparaissent comme un coup de canif dans l’agenda de transparence émis par Obama lors de sa campagne présidentielle. Du côté du Congrès, le support démocrate de l’action de la FCC semblait de son côté s’effriter de façon sensible à travers plusieurs documents exprimant une sourde opposition à l’action de la FCC. A noter que les lobbies des opérateurs et de l’industrie dépensent des centaines de millions par an dans les couloirs du Congrès pour « éduquer les Représentants et les Sénateurs ».

Dérapage sur la troisième voix..

Début Aout, après un silence radio de près d’un mois durant lequel plusieurs réunions ont eu lieu, apparaissaient les premiers signes de difficultés, d’une part liées au caractère secret des discussions et ensuite à l’impossibilité d’atteindre un consensus entre les différents acteurs autour du cadre défini par la FCC. Très vite les rumeurs d’un accord bilatéral entre Google et Verizon laissaient entendre que la FCC perdait le contrôle des négociations et que Google, dès qu’il s’agit de parler gros sous,semble   rapidement oublier toutes les belles paroles prononcées par Eric Schmidt son CEO, sur la neutralité des réseaux et sur la manière dont Google compte « organiser toute l’information du monde » sans comportements « démoniaques » (do-no-evil).

Les réseaux sans fils ne seront pas concernés

Eric Schmidt précisait les choses lors d’une conférence au Lac Tahoe (à laquelle assistait Neelie Kroes). « Les gens sont perdus à propos de la Net Neutralité….Je veux être certain que tout le monde comprends que qu’on entend par là. Nous voulons dire que pour un certain type de données, comme la vidéo, vous ne discriminez pas sur la vidéo d’une personne en faveur d’une autre. Mais c’est OK pour discriminer entre des types différents de données. » Il admet donc implicitement les péages sur les réseaux, un peu comme sur les autoroutes…, à condition qu’il puisse en contrôler l’installation pour récupérer son pourcentage.  Mais à  coté des réseaux sur lesquels il faudra finalement tout payer, il n’y a pas de routes gratuites acceptables, il reste le 56 K … A noter aussi que l’accord entre Google et Verizon exclue certains services futurs à haut débit que les opérateurs pourraient créer dans le secteur des jeux ou de la santé… et…les réseaux sans fil. «  Reconnaissant de la nature encore naissante du marché du haut débit sans fil, cette proposition n’applique pas les principes des réseaux fixes aux réseaux sans fil. » Google a tout intérêt à ce que Verizon, qui ne revend pas l’iPhone aux Etats Unis, supporte son téléphone sous Android…

Dans un Twitt émis par Google, on peu lire : «  Le New York Times a tors. Nous n’avons pas de conversations avec Verizon sur le paiement du transport de notre trafic. Nous restons engagés vers un internet ouvert ». Quant à Verizon, il ajoute : «  Nous avons dit dans une réponse à la FCC que notre objectif dans une politique d’encadrement d’Internet est d’assurer ouverture et responsabilité et incorpore une autorité spécifique de la FCC, tout en maintenant innovation et investissements. Suggérer que ceci est un accord de business entre nos sociétés est totalement faux. »

Le net aux mains des grandes sociétés monopolistiques

Exit donc la FCC pour le moment. Genachowski  Le mot de la fin de cette épisode revient à Gigi Sohn, Présidente de Public Knowledge qui explique : « Le point d’une règlementation de la neutralité du net est de prévenir les grosses compagnies de se partager Internet entre eux. » Elle ajoute : «  Le sort d’internet- est une affaire trop importante pour être décidé par une négociation impliquant 2 sociétés, aussi grosses soient elles comme Google et Verizon. »

La TMP (Télévision Mobile Personnelle) vivra-t-elle?… Une histoire de réseaux…

27 mai 2010

Lors d’une réunion intitulée « Telecoms 2010 », initiée par Premier Cercle, une partie du microcosme des télécoms et de la téléphonie mobile était réunis, venus écouter quelques leaders expliquer comment 2010 allait être un renouveau pour les télécommunications et les différentes formes de convergence dans cette atmosphère de…reprise.

Vincent Grivet, Directeur de la Télévision Mobile chez TDF participait à une table ronde centrée sur les nouveaux usages dans cette ambiance de convergence généralisée des services de télécommunications ou télévisuels fixes  et mobiles. Son propos était de traiter de l’avenir de la TMP, souvenez-vous, la Télévision Mobile Personnelle. En effet, plus de 4 ans après les premières expérimentations, alors que la technologie est parfaitement maitrisée, la TMP n’est toujours pas arrivée. Mais pourtant, avec un iPhone ou n’importe quel autre smartphone, je peux regarder la TV… sous certaines conditions. Que se passe-t-il donc ?  La version des faits de Vincent Grivet ne manque pas d’intérêt.

Démarré dans la douleur

« La TMP a démarré dans la douleur, c’est une réalité » précise-t-il. Inutile donc d’essayer de jouer la langue de bois, les faits sont là, la TMP n’a pas encore commencé. Il rappelle cependant que le grand frère de la TMP, la TNT (la Télévision Numérique Terrestre)  ne s’est pas faite toute seule non plus et que beaucoup, lorsqu’ont été crée les 18 chaines de la TNT, pensaient qu’elles allaient disparaitre rapidement. « Elles sont toujours là et florissantes » ajoute-t-il.  « Il faut rester calme et humble dans le domaine de la technologie et des média ». Mais quel sera donc l’avenir des 16 chaines annoncées pour la TMP ?

Les Français utilisent la Télévision Mobile des opérateurs

Plutôt que d’entrer dans le détail des circonvolutions du microcosme de la TMP, Vincent Grivet met en place les éléments du paradoxe en indiquant  que la Télévision Mobile est un usage qui s’est fortement et rapidement ancré dans la vie quotidienne des français. « Certains doutaient il y a 2 ans que les Français s’intéressent à la télévision mobile…Orange, qui publie des chiffres légèrement supérieurs à ceux de Médiametrie, montre un certain  avantage par rapport a ses deux concurrents. Il annonce en effet 3 millions d’utilisateurs réguliers et actifs de sa télévision mobile à la fin de 2009, soit 10% de sa base d’abonnées et probablement entre 1/3 et la moitié de ses clients 3G. »  Premier élément donc de ce tableau : la télévision est un usage qui s’est réellement et rapidement développé puisque les chiffres affichés par Orange France Télécom étaient de la moitié il y a un an. Orange annonce que les utilisateurs de sa télévision sur mobile sont à plus de 5 minutes par jour, un chiffre qui augmente rapidement. Dans certains pays étrangers, le temps d’utilisation quotidien dépasse maintenant les 30 minutes par jour. Les consommateurs sont donc intéressés par la télévision sur mobile pour peu qu’ils puissent disposer des solutions qui leur conviennent.

Le trafic des réseaux mobiles multiplié par 150 dans les 10 prochaines années

« Orange, poursuit Vincent Grivet, a admis l’année dernière que 40% de leur trafic de données sur leur réseau mobile était de la vidéo. Donc 10% des clients représente 40% de l’usage. » Il poursuit, en tant que membre de TDF, que les réseaux de broadcast (de diffusion) sont éminemment pertinents pour distribuer de manière massive ces contenus comme ils l’ont fait depuis 40 ans avec les réseaux de télévision classique car ils combinent la possibilité de porter un grand nombre de mega octets à un grand nombre d’utilisateur au même moment. Le réseau de broadcast diffère d’un réseau unicast dans la mesure où il envoie le même signal à tout le monde. Il est donc mieux adapté à des contenus de type télévisuels. TDF a élaboré un modèle de  simulation croissance du trafic des réseaux qui semble se confirmer au fur et à mesure de l’évolution. Sur ces bases il estime raisonnablement que le trafic des réseaux mobiles dans les 10 prochaines années allait augmenter d’un facteur 150 environ. « On va commencer à parler de pétabytes, c’est-à-dire de millions de gigabytes, précise-t-il. Un opérateur européen de taille médiane  avec 20 millions d’abonnés avait en 2009 un trafic moyen de 3 pétabytes environ. Dans 10 ans il en aura entre 200 et 300 petabytes… ».

Les investissements devront décupler pour suivre la demande de TV sur les mobiles

Vincent Grivet fait alors un rapide calcul sachant que ce même opérateur médian dispose sur un territoire comme la France de 15000 sites (des stations de cellule). Selon lui, la charge moyenne supportée par chaque site est aujourd’hui inférieur à 1 mégaoctets et dans les 8 à 10 prochaines années cette charge approchera les 70 mégaoctets, ce qui représente un saut énorme. Financièrement parlant, cet opérateur dépense aujourd’hui environ €100 millions pour améliorer son réseau de façon à lui permettre de supporter la charge (tant bien que mal)… Il estime que dans 10 ans, il devra dépenser  €1 milliard par an si l’on inclue les améliorations nécessitées par le 3G et le LTE à venir. « La TV sur mobile représente une grosse moitié de la charge supportée par les réseaux » ajoute-t-il… Le poids de la télévision sur les réseaux mobiles est donc énorme.

Les réseaux de broadcast, une opportunité…. !

Aujourd’hui, les réseaux mobiles plient sous la pression des utilisateurs de smartphones, principalement parce que les opérateurs mobiles offrent des bouquets de télévision mobiles, qu’ils considèrent comme un moyen de se différencier et d’augmenter l’ARPU (le revenu moyen par utilisateur) grâce à des offres premium et des exclusivités sur les contenus. Il suffit de chercher à regarder sur son mobile le tournoi de tennis qui se déroule à Roland Garros en ce moment pour rapidement toucher du doigt les enjeux entre les différents acteurs de ce secteur, opérateurs mobiles, fournisseurs de contenus, chaines de télévision etc…

Les opérateurs, simultanément confrontés à des investissements sur les réseaux fixes et sur les réseaux mobiles cherchent à palier au plus pressé et au plus économique, mais ils devront de toute manière améliorer leurs réseaux. D’autre part un certain maintient de la rareté de la bande passante évite que cette dernière ne se dévalue trop vite, permettant de perpétrer les rentes de situation, ce qui explique la réticence des opérateurs a voir un nouveau réseau se constuire, principalement pour canaliser la vidéo qu’ils utilisent pour capter et verrouiller leurs abonnés.

Une réduction des coûts d’un facteur 10 ou 15

Pour Vincent Grivet : « Le broadcast est une  réelle opportunité pour les contenus télévisés dans la mesure où les gens reçoivent le même contenu en même temps. » Pour la vidéo à la demande ou la catch up TV, 80% des minutes consommées se portent sur un nombre limité de contenus (qui peuvent  changer dans le temps) mais qui à un moment donné, peuvent être broadcastés. (Match de football, tennis etc…) . « Pour donner quelques ordres de grandeur de cette d économie poursuit-il,  on pense que assez rapidement les opérateurs mobiles pourraient décharger la moitié de leur trafic vidéo sur des réseaux de broadcast ce qui fait environ 30% de leur trafic data global. »  Il mentionne plusieurs centaines de millions d’euros d’économies par an…  « Un  abonné dans les conditions de coût des réseaux 3G (qui ne sont pas vraiment optimisés), coute 60 euros par mois à l’opérateur s’il regarde 10 minutes de TV sur son mobile par jour. Si dans 5 ans, l’utilisateur passe à 30 minutes de TV sur mobile par jour, sachant que la productivité des réseaux aura été améliorée par le 3G et le LTE, il coutera 10 euros. Mais sur un réseau de broadcast, on peut  diviser aujourd’hui comme dans 10 ans ces coûts par un facteur entre 10 et 15… on revient à des coûts qui ne s’expriment plus en euros par mois mais plutôt en centimes d’euros par mois comme c’est le cas dans la TNT ». Il est certain que la distribution de la TNT à presque 60 millions de Français ne coûte pas 10 euros par foyers, car dans ces conditions elle n’aurait jamais vu le jour.

Le verrou est le « go to market »… TDF veut débloquer la situation

Vincent Grivet ajoute que la qualité des flux télévisuels obtenus dans le broadcast est bien meilleure et plus stable. « Le broadcast est associé à la qualité HD, ce qui n’est pas le cas de l’Unicast » L’agenda de la TMP a été fixé et semble se dérouler normalement puisqu’à la fin du mois de mars, le CSA a donné l’autorisation d’émettre à 16 chaines de TMP, après un long processus de sélection qui a commencé en mars 2007. Après avoir examiné les dossiers d’exploitation dans le détail, le CSA donnera son accord définitif le 7 juin prochain. Mais le processus aurait pu s’arrêter là  car pour l’instant il n’y a pas encore vraiment de réseau…Le mois dernier pourtant, TDF a été choisi par le gouvernement pour être l’épine dorsale de ce nouveau réseau auquel il espère encore que des opérateurs viendront s’associer. TDF allié avec Omer Telecom (qui en France possède Virgin Mobile, Tele2 Mobile, Breizh Mobile et Casino Mobile), annonçait que 50% de la population française serait couverte d’ici la fin de 2011 dans 2500 communes comprenant 80 des plus grandes villes de France. Virgin Mobile (un MVNO de Orange qui dispose de 1.7 millions d’abonnés en France) aurait une exclusivité sur le réseau pendant 6 mois avant de l’ouvrir à d’autres, s’ils veulent bien venir… L’investissement annoncé par TDF pour cette tranche est de €15 millions ce qui semble dérisoire par rapport aux sommes englouties par les opérateurs dans leurs réseaux mobiles saturés… Le coût de l’abonnement serait de quelques euros par mois pour l’abonné.

Un problème de terminaux…

« Les opérateurs ont décidé que la TMP n’était pas une technologie sur laquelle ils voulaient s’engager et investir » conclue Vincent Grivet. Il reste maintenant à faciliter l’apparition de terminaux compatibles DVB-H, ce qui pose un autre problème dans la mesure où les opérateurs verrouillent en grande partie ce marché par le phénomène de la subvention et qu’ils préfèrent bien sur favoriser leur propres chaînes TV. En effet, il faut disposer d’un téléphone qui dispose d’une puce spéciale DVB-H capable de recevoir le signal TV, ce qui augmente légèrement le coût de l’appareil. Mais si il apparait que si la TMP commence à attirer des clients,  les fabricants de téléphone vont rapidement développer de nouveaux terminaux compatibles DVB-H à des prix proche des anciens. TDF annonce que son réseau deviendrait  rentable avec 1 million d’abonnés… Vincent Grivet concluait : «Aujourd’hui aux Etats-Unis  grâce à un dispositif d’extension très simple, l’iPhone peut déjà accéder au système de TMP américain équivalent appelé Flo, dont la technologie provient de Qualcomm et qui a reçu le support des opérateurs américains. » A noter enfin que les autorités Espagnoles ont récemment  décidé, comme d’autres pays en Europe, d’arrêter tous les projets ibériques de DVB-H  et se proposent déjà de redistribuer les fréquences…

CES 2010 : ZigBee pour économiser l’énergie dans la maison numérique

20 janvier 2010

En novembre dernier, la CEC, entendez la California Energy Commission suscitait des réactions très vives des représentants de l’industrie électronique de grande consommation aux Etats-Unis avec une décision qui affectera les californiens achetant un nouvel écran de TV à partir de 2011.  En effet pour réduire la consommation des nombreux écrans et appareils numériques multimédia qui envahissent la maison, la commission a décidé d’imposer une nouvelle limite de consommation des écrans de TV en dessous de 58 inches mis sur le marché dès 2011 et aux écrans de toutes tailles à partir de 2013.

Un CES sous le signe des Greentech

Gary Shapiro, patron du CES et porte parole de la très puissante CEA (Consumer Electronics Association) avait mis le CES 2010 sous le signe des économies d’énergies. Averse à toute régulation, il précisait que l’industrie savait d’elle-même faire avancer ses propres normes de basse consommation. L’Etat de Californie en a décidé autrement et il est certain que l’effet de cette décision suscitera l’innovation dans le secteur sans pour autant ralentir la baisse tendancielle des prix des téléviseurs et écrans, dont un plus grand nombre se vend chaque année.

Supprimer les piles dans les télécommandes

Recherchant donc des innovations structurelles capables de réduire les consommations d’énergie dans la maison numérique, je me suis intéressé à la société Hollandaise GreenPeak, un fabriquant de semi-conducteurs fabless dont j’ai rencontré Cees Links, le CEO. Celui-ci m’a expliqué comment il comptait réduire la consommation de piles électriques dans les manettes de télécommandes qui sont livrées avec les nombreuses set top box, écrans de télévision ou autres appareils numériques contrôlés à distance dans la maison. « Il y a souvent une dizaine de manettes de télécommande  dans chaque foyer, explique-t-il, beaucoup plus dès qu’augmente le nombre d’enfants. Chaque manette fonctionne avec 2, voir 4 piles électriques dont la durée de vie est de quelques mois à deux ans, selon l’utilisation…Ceci est une dépense et un problème de maintenance pour le foyer.  Dans le monde, il se vend 5 ou 600 millions de manettes de télécommandes par an… Notre objectif est donc de développer des composants de base pour les manettes de télécommandes qui seront alimentées par une pile de montre, dont la durée de vie dépasse les 15 ans. »

ZigBee RF4CE, un standard basse consommation

Le standard de réseau sans fil ZigBee  (IEEE802.15.4) appuyé sur les fréquences non licenciées 2.4 GHZ est utilisé depuis longtemps pour des liaisons sans fil à courte distance, à faible consommation, échangeant des petites quantités de données à faible vitesse (250 kbps).  Déjà fortement utilisé dans les réseaux de capteurs, ZigBee fonctionne sur IPv6, grâce à la société ArchRock qui a réalisé l’implémentation de la stack IPv6, facilitant l’intégration de tous ces réseaux dans l’Internet des objets. Depuis l’année dernière, le standard ZigBee a repris sous son ombrelle un standard appelé RF4CE (Radio Frequency For Consumer Electronics) développé initialement par Panasonic, Philips, Samsung et Sony. L’objet de ce standard est d’offrir aux fabricants d’appareils une solution de contrôle à distance adaptée aux appareils de grande consommation à travers des communications sans fil à très basse consommation. Cees Links précise que la consommation de batteries dans les manettes de télécommande serait ainsi réduite de 90%. D’autre part, l’utilisation de communications sans fil pour des manettes de télécommandes est beaucoup plus robuste et plus étendue que l’infrarouge qui ne fonctionne pas si un objet se place dans le rayon. Le standard RF4EC, validé par le consortium ZigBee Alliance, est aussi conçu pour permettre une liaison permettant l’envoie de données dans les 2 sens, ouvrant la voie a de nouvelles applications. Enfin il est conçu pour ne pas entrer en interférence avec les réseaux WiFi ou Bluetooth qui existe dans la maison.

De vastes marchés futurs

Dans un premier temps, GreenPeak a développé des composants pour adresser le marché des télécommandes et estime que sa solution offre une meilleure portée et une plus grande fiabilité que des solutions similaires pour un coût identique à celui de l’infra rouge. Pour Cees Links, « on ne verra plus d’élastique autour des manettes de télécommande pour tenir les batteries dont le boitier est généralement cassé par les nombreuses manipulations ». Il espère vendre plusieurs centaines de millions de composants par an à partir de l’année prochaine. L’économie pour le foyer est aussi substantiel puisqu’une manette sera alimenté pendant 15 ans ou plus par une seule batterie de type 2032 que l’on trouve dans les montres.  Au delà du marché des manettes de télécommande, GreenPeak développe aussi des composants pour une autre extension du standard ZigBee appelé Green Power, qui n’utilise aucune alimentation, mais utilise l’énergie mécanique des interrupteurs sans fil ou manettes de commandes sans fil. Le signal, en général binaire, est généré et transporté grâce à l’énergie générée par la simple manipulation de l’interrupteur. Ce marché est encore plus important que celui des manettes de télécommande, il est estimé à plus de 1 milliard de composants par an dans les années à venir.