Archive for the ‘Television’ category

On se fait une toile sur Facebook ?

9 mars 2011

Décidément, Facebook mène sa stratégie d’infrastructure à toute vitesse en offrant toujours plus d’accès à des nouveaux services. Aujourd’hui, le géant virtuel de Palo Alto vient d’ajouter la possibilité de streamer des films. Pour 3 dollars, vous avez 48 heures pour regarder ce film sur votre ordinateur… Un seul film au catalogue, « Dark Knight » de Warner Bros pour l’instant, mais rapidement la bibliothèque de film visibles va s’étoffer.

Le cinema chez soi tous les jours du mois pour le prix d’une place dans une salle

L’idée n’est pas nouvelle et la seul innovation réside dans le fait que cette possibilité arrive chez Facebook et risque de se propager rapidement dans d’autres parties du monde. Aux Etats Unis, Netflix connait un énorme succès en permettant à quiconque de regarder la TV (qui est payante aux US) et de regarder en streaming n’importe quel film d’une imposante bibliothèque accessible en libre service pour 7,99$ par mois. L’utilisateur peut utiliser sa télévision avec une Wii, une PSP ou une Xbox, aussi bien que le browser de son PC connecté sur ADSL.

Chez les enfants ou les jeunes adultes américains, la grande mode est d’utiliser l’iPad pour regarder des films à la maison sur Netflix, ou encore la télévision,  en restant connecté par WiFi tout en se baladant comme ils veulent dans la maison, le jardin, aller au bord de la piscine ou même aux toilettes… Pour 2 dollars de plus par mois, Netflix offre d’envoyer des DVD, un par un, en nombre illimité sur un mois, choisis dans une plus large sélection de films…

Aujourd’hui, ces possibilités ne sont pas accessibles en France, mis a part quelques sites chers et mal fichus, parce que les ayants droit, les chaines de TV, les opérateurs internet, les salles de cinéma (la distribution) et les Hadopistes intégristes s’y opposent mais ils s’étonnent ensuite de la piraterie….  La pression mise par l’arrivé du streaming vidéo sur Facebook bousculera-t-elle ces stupides attitudes ?

Publicités

Très haut débit sans fil pour tous, le « SuperWifi » annoncé aux Etats Unis..

28 septembre 2010

La FCC américaine vient de libérer un ensemble de fréquences hertziennes inutilisées dans les interstices des chaines de télévision analogiques afin de les ouvrir à une utilisation sans licence préalable par des « terminaux mobiles » capables de télécharger des informations à très haut débit (80 Mbps et plus). Immédiatement appelé SuperWiFi parce que ces fréquences basses peuvent transporter des données à très haute vitesse sur des grandes distances (plusieurs kilomètres) à partir d’émetteurs de faible puissance, ce réseau couterait beaucoup moins cher à installer que les réseaux cellulaires 3G ou LTE, ne parlons pas des réseaux de fibre qui se cantonnent dans les zones denses aujourd’hui. Il serait plus puissant, capable de mieux pénétrer dans les bâtiments et serait ouvert à tous : particuliers, municipalités, communautés diverses, opérateurs… sans nécessité de posséder ou d’acheter une licence d’exploitation.

Inspiré du mode de fonctionnement du WiFi (qui rappelons le fut interdit à ses début pendant quelques temps en France), il serait basé sur des technologies nouvelles plus performantes, plus efficaces et moins chères dont les développements semblent déjà avancés aux Etats Unis… Le Chairman de la FCC, Julius Genachowski indiquait « Cette décision ouvre une nouvelle ère pour l’innovation technologique américaine. Nous savons d’expérience que ce spectre non licencié peut susciter des innovations énormément utiles. Par exemple, il y a des années, personne n’imaginait la manière d’utiliser du spectre de basse qualité inutilisé qualifié de « bande pourrie » lorsque la FCC a décidé de le libérer sans licence.  Le résultat fut une vague de technologies nouvelles… le Wifi qui est aujourd’hui une industrie de plusieurs milliards de dollars et une partie essentielle de l’écosystème de la mobilité ». Cette nouvelle approche permettrait de réaliser le très haut débit pour tous sans la fibre.

Un mouvement entamé il y a dejà 3 ans

Mais chaque fois que de nouvelles fréquences hertziennes sont libérées et destinées à être proposées au public pour créer de nouvelles infrastructures qui ne tombent pas à priori dans l’escarcelle des opérateurs en place, les boucliers se lèvent, surtout aux Etats Unis ou les lobbies des opérateurs sont extrêmement puissants et efficaces pour protéger leurs monopôles. Le WiFi en son temps a pris tout le monde par surprise et les opérateurs ont eu beaucoup de mal à le museler. Aujourd’hui, ils ne veulent pas se laisser prendre de nouveau avec ce super Wifi. Chacun sait en effet que ces monopoles historiques s’appuient sur les infrastructures pour verrouiller les consommateurs « ad vitam » chez le même opérateur, jusqu’à ce qu’une nouvelle technologie arrive, qu’ils refusent dans un premier temps et essaient de récupérer et de contrôler, ou même de tuer dans un deuxième temps (cf le WiMax).

Ce mouvement se fait sous le regard plus ou moins bienveillant des régulateurs (FCC, ARCEP, Ofcom, ORECE,  etc…) dont le rôle est de faciliter le développement des infrastructures et des usages sur des marchés réputés ouverts. C’est une des raisons pour lesquelles les opérateurs sont particulièrement averses à toute innovation technologique… (sauf au niveau du discours)… et c’est aussi la raison pourquoi ils voient d’un très mauvais œil l’annonce de ce « superWiFi » que tout le monde découvre aujourd’hui mais qui se prépare aux Etats Unis depuis déjà plusieurs années sous le terme de « White Spaces » ou encore « Fréquences Blanches ». Il est donc tout naturel que la FCC, dirigée de façon intelligente, s’oriente vers une mise à disposition non licenciée de ces fréquences, étant quasiment certaine que l’innovation viendra avec.

Que sont ces « bandes blanches » ?

A la fin de 2006 et au début 2007, plusieurs ingénieurs de sociétés de la Silicon Valley comme Google et autres grands de l’informatique ou d’internet se réunissaient pour discuter de ces fameuses fréquences blanches et finalement créent une alliance appelée « White Space Coalition » regroupant plusieurs poids lourds comme Dell, HP, Microsoft, Google, Intel, Philips, Earthlink et Samsung. L’objectif clairement affiché est de développer une technologie sans fil qui utilise des petites portions de bandes de fréquences de la Télévision Analogique dans les zones 54 – 698 MHz, pour transporter des données sans fil à très haut débit (80 mbps et au dessus). Les bandes de fréquences visées sont appelées « bandes blanches » ou « fréquences blanches » parce que ce sont des bandes inutilisées qui ont été mises en place pour éviter les interférences entre les canaux de télévision analogique (aujourd’hui en cours de disparition).

L’un des principaux problèmes de l’utilisation de ces fréquences blanches est posé par les interférences qui peuvent se produire avec les canaux de télévision existants. En octobre 2008, Google tenait une conférence sur ce thème dans ses locaux à Mountain View montrant l’intérêt de nouvelles technologies comme les radios cognitives qui permettent une gestion dynamique et flexible à basse puissance des fréquences vacantes.

L’une des difficultés de l’utilisation de ces fréquences blanche est qu’elles forment un véritable « gruyère » parce que ce sont des petites bandes de fréquence qui se trouvent entre des canaux de TV affectés à des endroits différents selon les régions. La technologie doit donc déterminer avec précision les canaux pré-existants et éviter les interférences locales. Le 5 novembre suivant, la FCC approuvait à l’unanimité l’idée de l’utilisation non licenciée des fréquences blanches, accompagnée d’un ensemble de recommandations sur la manière dont les appareils (TV Band Devices) doivent fonctionner pour éviter les interférences locales.

L’argument des interférences…

A peine la décision de la FCC était-elle prise en novembre 2008 que la NAB (National Association of Broadcasters) réagissait associée à l’Association for Maximum Service Télévision (MSTV) demandant à la FCC de revenir sur sa décision. Plainte était déposé devant la court d’Appel du District de Columbia mentionnant que l’utilisation des Fréquences Blanches conduirait à dégrader les services de Télévision. D’autres arguments étaient cités concernant les interférences possibles avec les fréquences audio utilisées par les micros dans les systèmes de sonorisation publique. La chanteuse américaine Dolly Parton, réquisitionnée par la NAB pour se faire l’avocat de la protection des fréquences blanches, perdait la bataille.

Microsoft, impliqué depuis le début dans ces bandes blanches, a mis en œuvre un prototype de réseau « superWifi » sur son vaste campus de Redmond et a testé les interférences possibles avec les dispositifs radio en place. Les ingénieurs de Microsoft ont développé des outils permettant d’identifier la présence de canaux audio utilisés au fur et à mesure que le terminal se déplace et d’éviter les interférences. L’installation mise en place avec seulement 2 stations a permis de couvrir la totalité du campus de Microsoft qui fait 250 hectares pour près de 200 bâtiments. Pour l’instant ce réseau est un prototype de laboratoire et Microsoft n’a pas indiqué son intention d’en faire un produit.

Les fréquences, un bien public…

Les fréquences hertziennes sont à la base des infrastructures de communication sans fil qui se développent depuis une bonne quinzaine d’années, qui sont aujourd’hui utilisées quotidiennement par des milliards d’utilisateurs pour téléphoner ou pour accéder à Internet sans fil, surtout depuis que les smartphones et les tablettes numériques se sont développés.

Historiquement, l’affectation des fréquences les plus attractives (dites en or) s’est faite au profit des technologies existantes à l’époque qui sont aujourd’hui quelque peu obsolètes et plutôt inefficaces en termes d’utilisation du spectre. Ces technologies, la télévision, la radio et la téléphonie cellulaire sont mises en oeuvre par des sociétés historiques qui détiennent des monopoles (de fait ou constitués) sur lesquelles elles sont assises confortablement grâce à la possession de ces fréquences. On a bien vu les difficultés qu’a soulevées l’attribution de la 4ème fréquence de téléphonie sans fil en France.

Que va faire l’ARCEP ?

La libération de nouvelles fréquences suscite toujours des ambitions chez des nouveaux entrants potentiels et des craintes des sociétés en place qui voient leur « legacy » devenir un véritable boulet s’ils n’investissent pas rapidement dans ces nouvelles technologies et ne répondent pas proprement aux nouveaux besoins qu’elles satisfont.  Ils cherchent donc à contrôler étroitement les affectations de nouvelles fréquences et l’innovation technologique. C’est probablement ce qui va se passer avec ce nouveau SuperWiFi.

C’est justement dans cette mesure que ce nouveau superWiFi est particulièrement intéressant parce qu’il élargira de façon importante la portée et la puissance du WiFi et ne sera pas, à priori, la propriété exclusive des opérateurs en place. Alors que les réseaux LTE représentent un investissement important pour les opérateurs, mais ne couvriront pas suffisamment de territoire avant une bonne quinzaine d’année à cause du lancinant problème des zones moins denses ou rurales dans lesquelles ils ne veulent pas investir, alors que les réseaux 3G sont surchargés et menacent de crouler sous la demande au fur et à mesure que les smartphones et les tablettes arrivent en masse sur le marché, le superWifi semble une opportunité incontournable.

L’ARCEP connait parfaitement ces bandes de « fréquences blanches ». L’Europe aussi, mais rien ne bouge encore de ce côté-là. Resteront-elles frileusement sur des positions prises? Par exemple en matière de WiMax,  interdire le roaming sous prétexte de prétendues interférences (et éviter une levée de bouclier de la part des opérateurs).  Ou bien prendront-elles rapidement des positions innovantes qui lèveront interdits et incertitudes sur ce superWiFi et permettrons à des développeurs et des industriels Français de se lancer dans cette nouvelle aventure… ?

Google et Verizon règlent son compte à la Neutralité du Net

9 août 2010

D’un côté le vieux monde des opérateurs et des ayants droit, de l’autre le nouveau monde du Net de la dématérialisation, de la consommation sans intermédiaire. La ligne de démarcation entre les deux s’appelle aujourd’hui « neutralité du Net ». Une tentative à l’initiative de la FCC  pour « concilier » ces deux mondes a échoué la semaine dernière aux Etats Unis alors que Google et Verizon se sont finalement engagés unilatéralement dans une proposition commune, qui fait froncer quelques sourcils. Les deux géants ont en effet signé ce lundi une proposition commune de cadre législatif, ni plus ni moins, sur la manière de gérer les priorités de circulation sur le Net en fonction des types de données. Il est assez peu probable que la FCC se réjouisse de cette proposition tramée à son nez et à sa barbe par les deux sociétés.

Confrontation entre deux visions de la société industrielle

Depuis plusieurs mois,  voire quelques années, le torchon brule entre ces deux mondes qui semblent participer d’une même évolution, mais chacun appuyé sur des stratégies, des organisations, des fonctionnements, des comportements et surtout des business modèles différents. Deux mondes industriels sont aujourd’hui en pleine confrontation  autour d’Internet pour asseoir et mettre en œuvre chacun une nouvelle vision de la société industrielle. L’une basée sur un modèle ancien, cherche à digérer et intégrer Internet,  l’autre, née d’Internet  où elle trouve ses racines, est en création autour de quelques modèles très dynamiques, mais encore fragiles. Sur la base de ce qui s’est passé au cours de ces 10 dernières années autour d’Internet, c’est aux Etats Unis que se développe cette confrontation et c’est probablement aux Etats Unis que s’en dérouleront les principales étapes. Elle est aujourd’hui cristallisée  autour de la neutralité du Net mais elle cache des enjeux à court et long terme bien plus importants.

La Neutralité du Net, un symbole plus qu’une définition

Si la Neutralité du Net est aujourd’hui un thème qui compte un peu plus aux yeux du grand public en général peu capable de se mobiliser sur des thèmes complexes, elle pourrait  devenir le symbole  de cette confrontation/mutation qui oppose maintenant l’économie traditionnelle et l’économie Internet, encore plus que jamais alors que la crise commence à s’estomper. Mais comme chaque fois que l’on aborde les symboles, les manipulations et récupérations en tous genres sont faciles… Il semble donc pour l’instant inutile de définir la neutralité du net et de discuter pour savoir qui la respecte ou pas. En effet, elle se crée et évolue au fur et à mesure que se déroule la confrontation, tout comme une ligne de faille entre deux plaques tectoniques se modifie au fur et à mesure que ces deux plaques s’imbriquent l’une dans l’autre. Il vaut mieux pour l’instant s’intéresser aux plaques tectoniques et aux mouvements qu’elles opèrent.

Un enjeu de taille

A la fin du mois de juin dernier, la FCC américaine annonçait avoir suscité une discussion entre les lobbyistes des 2 opérateurs américains AT&T et Verizon, de Google, de Skype, rejoints par quelques autres acteurs comme Comcast, Microsoft, Intel, etc… . L’objectif, annoncé par Julius Genachowski , Chairman du régulateur, étant d’essayer de trouver un accord qui conduise à une sorte de reconnaissance juridique de la Neutralité du Net, en d’autre termes de mettre en place un cadre qui décrive les grandes lignes de la gestion du trafic des données sur les réseaux. L’enjeu est de taille puisqu’il s’agit, ni plus ni moins, de jeter les bases des fondations du fonctionnement  de l’économie sur Internet aux Etats Unis, cadre qui risque d’être adopté dans le monde entier par la suite.

Un obstacle sur l’agenda de la FCC

En octobre dernier, dans un document préparatoire de plus de 100 pages, la FCC définissait un certain nombre de règles se posant comme les éléments constitutifs de la Neutralité des réseaux. Ce document était mis en discussion public jusqu’au 26 avril 2010.  Mais avril, la FCC voyait son agenda remis en question et ses efforts réduits à néant par une décision de la cours d’Appel du District de Columbia qui rejetait une décision de la FCC, prise en 2008, condamnant  Comcast pour avoir entravé la circulation des échanges de données pair à pair sur son réseau. La cours d’Appel affirme purement et simplement que la FCC a outrepassé ses droit en s’occupant de circulation des données sur les réseaux sachant que les réseaux haut débit son classés « services d’information » qui ne relèvent pas de la régulation sur la téléphonie . Ne comptant pas faire appel ni demander au congrès de lui attribuer les compétences, la solution restante pour la FCC semblait être de reclassifier le haut débit comme des services téléphoniques, une démarche longue et risquée qui n’était pas envisageable tel quel. Appuyé par son conseil juridique, le patron de la FCC adoptait alors une autre stratégie, « une troisième voix » consistant à envisager une reclassification partielle (quelques mesures assez techniques) permettant à la FCC de finalement s’occuper du haut débit et pousser les principaux acteurs à négocier un accord qui puisse ensuite faire jurisprudence, un compromis entre les dispositions du Communication Act de 1996 et la décision Comcast. Mais il semble qu’il y ait eu quelques dérapages imprévus.

La troisième voix, stratégie de dernière heure…

Les négociations commencèrent donc fin juin dans la joie et la bonne humeur, saluées par une presse enthousiaste louant la troisième voix. Mais déjà, les voix de la CTIA (ancienne Cable and Television Industry Assciation devenue The wireless Association) dirigée par Steve Largent, un ancien Quarter Back de Football Américain, et de quelques organismes liés à la protection du consommateur, s’élevaient pour des raisons complètement opposées. Le premier cherchant à protéger les intérêts des fabricants averses à toute ingérence du gouvernement dans les affaires économiques (on a vu ce que cela a donné dans le secteur de la finance.. !) et les autres comme Free Press, New America Foundation, Media Access Project et Public Knowledge qui demandent que le public et les consommateurs soient impliqués dans ces négociations qui se déroulent à huit clos et pour qui elles apparaissent comme un coup de canif dans l’agenda de transparence émis par Obama lors de sa campagne présidentielle. Du côté du Congrès, le support démocrate de l’action de la FCC semblait de son côté s’effriter de façon sensible à travers plusieurs documents exprimant une sourde opposition à l’action de la FCC. A noter que les lobbies des opérateurs et de l’industrie dépensent des centaines de millions par an dans les couloirs du Congrès pour « éduquer les Représentants et les Sénateurs ».

Dérapage sur la troisième voix..

Début Aout, après un silence radio de près d’un mois durant lequel plusieurs réunions ont eu lieu, apparaissaient les premiers signes de difficultés, d’une part liées au caractère secret des discussions et ensuite à l’impossibilité d’atteindre un consensus entre les différents acteurs autour du cadre défini par la FCC. Très vite les rumeurs d’un accord bilatéral entre Google et Verizon laissaient entendre que la FCC perdait le contrôle des négociations et que Google, dès qu’il s’agit de parler gros sous,semble   rapidement oublier toutes les belles paroles prononcées par Eric Schmidt son CEO, sur la neutralité des réseaux et sur la manière dont Google compte « organiser toute l’information du monde » sans comportements « démoniaques » (do-no-evil).

Les réseaux sans fils ne seront pas concernés

Eric Schmidt précisait les choses lors d’une conférence au Lac Tahoe (à laquelle assistait Neelie Kroes). « Les gens sont perdus à propos de la Net Neutralité….Je veux être certain que tout le monde comprends que qu’on entend par là. Nous voulons dire que pour un certain type de données, comme la vidéo, vous ne discriminez pas sur la vidéo d’une personne en faveur d’une autre. Mais c’est OK pour discriminer entre des types différents de données. » Il admet donc implicitement les péages sur les réseaux, un peu comme sur les autoroutes…, à condition qu’il puisse en contrôler l’installation pour récupérer son pourcentage.  Mais à  coté des réseaux sur lesquels il faudra finalement tout payer, il n’y a pas de routes gratuites acceptables, il reste le 56 K … A noter aussi que l’accord entre Google et Verizon exclue certains services futurs à haut débit que les opérateurs pourraient créer dans le secteur des jeux ou de la santé… et…les réseaux sans fil. «  Reconnaissant de la nature encore naissante du marché du haut débit sans fil, cette proposition n’applique pas les principes des réseaux fixes aux réseaux sans fil. » Google a tout intérêt à ce que Verizon, qui ne revend pas l’iPhone aux Etats Unis, supporte son téléphone sous Android…

Dans un Twitt émis par Google, on peu lire : «  Le New York Times a tors. Nous n’avons pas de conversations avec Verizon sur le paiement du transport de notre trafic. Nous restons engagés vers un internet ouvert ». Quant à Verizon, il ajoute : «  Nous avons dit dans une réponse à la FCC que notre objectif dans une politique d’encadrement d’Internet est d’assurer ouverture et responsabilité et incorpore une autorité spécifique de la FCC, tout en maintenant innovation et investissements. Suggérer que ceci est un accord de business entre nos sociétés est totalement faux. »

Le net aux mains des grandes sociétés monopolistiques

Exit donc la FCC pour le moment. Genachowski  Le mot de la fin de cette épisode revient à Gigi Sohn, Présidente de Public Knowledge qui explique : « Le point d’une règlementation de la neutralité du net est de prévenir les grosses compagnies de se partager Internet entre eux. » Elle ajoute : «  Le sort d’internet- est une affaire trop importante pour être décidé par une négociation impliquant 2 sociétés, aussi grosses soient elles comme Google et Verizon. »

La TMP (Télévision Mobile Personnelle) vivra-t-elle?… Une histoire de réseaux…

27 mai 2010

Lors d’une réunion intitulée « Telecoms 2010 », initiée par Premier Cercle, une partie du microcosme des télécoms et de la téléphonie mobile était réunis, venus écouter quelques leaders expliquer comment 2010 allait être un renouveau pour les télécommunications et les différentes formes de convergence dans cette atmosphère de…reprise.

Vincent Grivet, Directeur de la Télévision Mobile chez TDF participait à une table ronde centrée sur les nouveaux usages dans cette ambiance de convergence généralisée des services de télécommunications ou télévisuels fixes  et mobiles. Son propos était de traiter de l’avenir de la TMP, souvenez-vous, la Télévision Mobile Personnelle. En effet, plus de 4 ans après les premières expérimentations, alors que la technologie est parfaitement maitrisée, la TMP n’est toujours pas arrivée. Mais pourtant, avec un iPhone ou n’importe quel autre smartphone, je peux regarder la TV… sous certaines conditions. Que se passe-t-il donc ?  La version des faits de Vincent Grivet ne manque pas d’intérêt.

Démarré dans la douleur

« La TMP a démarré dans la douleur, c’est une réalité » précise-t-il. Inutile donc d’essayer de jouer la langue de bois, les faits sont là, la TMP n’a pas encore commencé. Il rappelle cependant que le grand frère de la TMP, la TNT (la Télévision Numérique Terrestre)  ne s’est pas faite toute seule non plus et que beaucoup, lorsqu’ont été crée les 18 chaines de la TNT, pensaient qu’elles allaient disparaitre rapidement. « Elles sont toujours là et florissantes » ajoute-t-il.  « Il faut rester calme et humble dans le domaine de la technologie et des média ». Mais quel sera donc l’avenir des 16 chaines annoncées pour la TMP ?

Les Français utilisent la Télévision Mobile des opérateurs

Plutôt que d’entrer dans le détail des circonvolutions du microcosme de la TMP, Vincent Grivet met en place les éléments du paradoxe en indiquant  que la Télévision Mobile est un usage qui s’est fortement et rapidement ancré dans la vie quotidienne des français. « Certains doutaient il y a 2 ans que les Français s’intéressent à la télévision mobile…Orange, qui publie des chiffres légèrement supérieurs à ceux de Médiametrie, montre un certain  avantage par rapport a ses deux concurrents. Il annonce en effet 3 millions d’utilisateurs réguliers et actifs de sa télévision mobile à la fin de 2009, soit 10% de sa base d’abonnées et probablement entre 1/3 et la moitié de ses clients 3G. »  Premier élément donc de ce tableau : la télévision est un usage qui s’est réellement et rapidement développé puisque les chiffres affichés par Orange France Télécom étaient de la moitié il y a un an. Orange annonce que les utilisateurs de sa télévision sur mobile sont à plus de 5 minutes par jour, un chiffre qui augmente rapidement. Dans certains pays étrangers, le temps d’utilisation quotidien dépasse maintenant les 30 minutes par jour. Les consommateurs sont donc intéressés par la télévision sur mobile pour peu qu’ils puissent disposer des solutions qui leur conviennent.

Le trafic des réseaux mobiles multiplié par 150 dans les 10 prochaines années

« Orange, poursuit Vincent Grivet, a admis l’année dernière que 40% de leur trafic de données sur leur réseau mobile était de la vidéo. Donc 10% des clients représente 40% de l’usage. » Il poursuit, en tant que membre de TDF, que les réseaux de broadcast (de diffusion) sont éminemment pertinents pour distribuer de manière massive ces contenus comme ils l’ont fait depuis 40 ans avec les réseaux de télévision classique car ils combinent la possibilité de porter un grand nombre de mega octets à un grand nombre d’utilisateur au même moment. Le réseau de broadcast diffère d’un réseau unicast dans la mesure où il envoie le même signal à tout le monde. Il est donc mieux adapté à des contenus de type télévisuels. TDF a élaboré un modèle de  simulation croissance du trafic des réseaux qui semble se confirmer au fur et à mesure de l’évolution. Sur ces bases il estime raisonnablement que le trafic des réseaux mobiles dans les 10 prochaines années allait augmenter d’un facteur 150 environ. « On va commencer à parler de pétabytes, c’est-à-dire de millions de gigabytes, précise-t-il. Un opérateur européen de taille médiane  avec 20 millions d’abonnés avait en 2009 un trafic moyen de 3 pétabytes environ. Dans 10 ans il en aura entre 200 et 300 petabytes… ».

Les investissements devront décupler pour suivre la demande de TV sur les mobiles

Vincent Grivet fait alors un rapide calcul sachant que ce même opérateur médian dispose sur un territoire comme la France de 15000 sites (des stations de cellule). Selon lui, la charge moyenne supportée par chaque site est aujourd’hui inférieur à 1 mégaoctets et dans les 8 à 10 prochaines années cette charge approchera les 70 mégaoctets, ce qui représente un saut énorme. Financièrement parlant, cet opérateur dépense aujourd’hui environ €100 millions pour améliorer son réseau de façon à lui permettre de supporter la charge (tant bien que mal)… Il estime que dans 10 ans, il devra dépenser  €1 milliard par an si l’on inclue les améliorations nécessitées par le 3G et le LTE à venir. « La TV sur mobile représente une grosse moitié de la charge supportée par les réseaux » ajoute-t-il… Le poids de la télévision sur les réseaux mobiles est donc énorme.

Les réseaux de broadcast, une opportunité…. !

Aujourd’hui, les réseaux mobiles plient sous la pression des utilisateurs de smartphones, principalement parce que les opérateurs mobiles offrent des bouquets de télévision mobiles, qu’ils considèrent comme un moyen de se différencier et d’augmenter l’ARPU (le revenu moyen par utilisateur) grâce à des offres premium et des exclusivités sur les contenus. Il suffit de chercher à regarder sur son mobile le tournoi de tennis qui se déroule à Roland Garros en ce moment pour rapidement toucher du doigt les enjeux entre les différents acteurs de ce secteur, opérateurs mobiles, fournisseurs de contenus, chaines de télévision etc…

Les opérateurs, simultanément confrontés à des investissements sur les réseaux fixes et sur les réseaux mobiles cherchent à palier au plus pressé et au plus économique, mais ils devront de toute manière améliorer leurs réseaux. D’autre part un certain maintient de la rareté de la bande passante évite que cette dernière ne se dévalue trop vite, permettant de perpétrer les rentes de situation, ce qui explique la réticence des opérateurs a voir un nouveau réseau se constuire, principalement pour canaliser la vidéo qu’ils utilisent pour capter et verrouiller leurs abonnés.

Une réduction des coûts d’un facteur 10 ou 15

Pour Vincent Grivet : « Le broadcast est une  réelle opportunité pour les contenus télévisés dans la mesure où les gens reçoivent le même contenu en même temps. » Pour la vidéo à la demande ou la catch up TV, 80% des minutes consommées se portent sur un nombre limité de contenus (qui peuvent  changer dans le temps) mais qui à un moment donné, peuvent être broadcastés. (Match de football, tennis etc…) . « Pour donner quelques ordres de grandeur de cette d économie poursuit-il,  on pense que assez rapidement les opérateurs mobiles pourraient décharger la moitié de leur trafic vidéo sur des réseaux de broadcast ce qui fait environ 30% de leur trafic data global. »  Il mentionne plusieurs centaines de millions d’euros d’économies par an…  « Un  abonné dans les conditions de coût des réseaux 3G (qui ne sont pas vraiment optimisés), coute 60 euros par mois à l’opérateur s’il regarde 10 minutes de TV sur son mobile par jour. Si dans 5 ans, l’utilisateur passe à 30 minutes de TV sur mobile par jour, sachant que la productivité des réseaux aura été améliorée par le 3G et le LTE, il coutera 10 euros. Mais sur un réseau de broadcast, on peut  diviser aujourd’hui comme dans 10 ans ces coûts par un facteur entre 10 et 15… on revient à des coûts qui ne s’expriment plus en euros par mois mais plutôt en centimes d’euros par mois comme c’est le cas dans la TNT ». Il est certain que la distribution de la TNT à presque 60 millions de Français ne coûte pas 10 euros par foyers, car dans ces conditions elle n’aurait jamais vu le jour.

Le verrou est le « go to market »… TDF veut débloquer la situation

Vincent Grivet ajoute que la qualité des flux télévisuels obtenus dans le broadcast est bien meilleure et plus stable. « Le broadcast est associé à la qualité HD, ce qui n’est pas le cas de l’Unicast » L’agenda de la TMP a été fixé et semble se dérouler normalement puisqu’à la fin du mois de mars, le CSA a donné l’autorisation d’émettre à 16 chaines de TMP, après un long processus de sélection qui a commencé en mars 2007. Après avoir examiné les dossiers d’exploitation dans le détail, le CSA donnera son accord définitif le 7 juin prochain. Mais le processus aurait pu s’arrêter là  car pour l’instant il n’y a pas encore vraiment de réseau…Le mois dernier pourtant, TDF a été choisi par le gouvernement pour être l’épine dorsale de ce nouveau réseau auquel il espère encore que des opérateurs viendront s’associer. TDF allié avec Omer Telecom (qui en France possède Virgin Mobile, Tele2 Mobile, Breizh Mobile et Casino Mobile), annonçait que 50% de la population française serait couverte d’ici la fin de 2011 dans 2500 communes comprenant 80 des plus grandes villes de France. Virgin Mobile (un MVNO de Orange qui dispose de 1.7 millions d’abonnés en France) aurait une exclusivité sur le réseau pendant 6 mois avant de l’ouvrir à d’autres, s’ils veulent bien venir… L’investissement annoncé par TDF pour cette tranche est de €15 millions ce qui semble dérisoire par rapport aux sommes englouties par les opérateurs dans leurs réseaux mobiles saturés… Le coût de l’abonnement serait de quelques euros par mois pour l’abonné.

Un problème de terminaux…

« Les opérateurs ont décidé que la TMP n’était pas une technologie sur laquelle ils voulaient s’engager et investir » conclue Vincent Grivet. Il reste maintenant à faciliter l’apparition de terminaux compatibles DVB-H, ce qui pose un autre problème dans la mesure où les opérateurs verrouillent en grande partie ce marché par le phénomène de la subvention et qu’ils préfèrent bien sur favoriser leur propres chaînes TV. En effet, il faut disposer d’un téléphone qui dispose d’une puce spéciale DVB-H capable de recevoir le signal TV, ce qui augmente légèrement le coût de l’appareil. Mais si il apparait que si la TMP commence à attirer des clients,  les fabricants de téléphone vont rapidement développer de nouveaux terminaux compatibles DVB-H à des prix proche des anciens. TDF annonce que son réseau deviendrait  rentable avec 1 million d’abonnés… Vincent Grivet concluait : «Aujourd’hui aux Etats-Unis  grâce à un dispositif d’extension très simple, l’iPhone peut déjà accéder au système de TMP américain équivalent appelé Flo, dont la technologie provient de Qualcomm et qui a reçu le support des opérateurs américains. » A noter enfin que les autorités Espagnoles ont récemment  décidé, comme d’autres pays en Europe, d’arrêter tous les projets ibériques de DVB-H  et se proposent déjà de redistribuer les fréquences…

CES 2010 : ZigBee pour économiser l’énergie dans la maison numérique

20 janvier 2010

En novembre dernier, la CEC, entendez la California Energy Commission suscitait des réactions très vives des représentants de l’industrie électronique de grande consommation aux Etats-Unis avec une décision qui affectera les californiens achetant un nouvel écran de TV à partir de 2011.  En effet pour réduire la consommation des nombreux écrans et appareils numériques multimédia qui envahissent la maison, la commission a décidé d’imposer une nouvelle limite de consommation des écrans de TV en dessous de 58 inches mis sur le marché dès 2011 et aux écrans de toutes tailles à partir de 2013.

Un CES sous le signe des Greentech

Gary Shapiro, patron du CES et porte parole de la très puissante CEA (Consumer Electronics Association) avait mis le CES 2010 sous le signe des économies d’énergies. Averse à toute régulation, il précisait que l’industrie savait d’elle-même faire avancer ses propres normes de basse consommation. L’Etat de Californie en a décidé autrement et il est certain que l’effet de cette décision suscitera l’innovation dans le secteur sans pour autant ralentir la baisse tendancielle des prix des téléviseurs et écrans, dont un plus grand nombre se vend chaque année.

Supprimer les piles dans les télécommandes

Recherchant donc des innovations structurelles capables de réduire les consommations d’énergie dans la maison numérique, je me suis intéressé à la société Hollandaise GreenPeak, un fabriquant de semi-conducteurs fabless dont j’ai rencontré Cees Links, le CEO. Celui-ci m’a expliqué comment il comptait réduire la consommation de piles électriques dans les manettes de télécommandes qui sont livrées avec les nombreuses set top box, écrans de télévision ou autres appareils numériques contrôlés à distance dans la maison. « Il y a souvent une dizaine de manettes de télécommande  dans chaque foyer, explique-t-il, beaucoup plus dès qu’augmente le nombre d’enfants. Chaque manette fonctionne avec 2, voir 4 piles électriques dont la durée de vie est de quelques mois à deux ans, selon l’utilisation…Ceci est une dépense et un problème de maintenance pour le foyer.  Dans le monde, il se vend 5 ou 600 millions de manettes de télécommandes par an… Notre objectif est donc de développer des composants de base pour les manettes de télécommandes qui seront alimentées par une pile de montre, dont la durée de vie dépasse les 15 ans. »

ZigBee RF4CE, un standard basse consommation

Le standard de réseau sans fil ZigBee  (IEEE802.15.4) appuyé sur les fréquences non licenciées 2.4 GHZ est utilisé depuis longtemps pour des liaisons sans fil à courte distance, à faible consommation, échangeant des petites quantités de données à faible vitesse (250 kbps).  Déjà fortement utilisé dans les réseaux de capteurs, ZigBee fonctionne sur IPv6, grâce à la société ArchRock qui a réalisé l’implémentation de la stack IPv6, facilitant l’intégration de tous ces réseaux dans l’Internet des objets. Depuis l’année dernière, le standard ZigBee a repris sous son ombrelle un standard appelé RF4CE (Radio Frequency For Consumer Electronics) développé initialement par Panasonic, Philips, Samsung et Sony. L’objet de ce standard est d’offrir aux fabricants d’appareils une solution de contrôle à distance adaptée aux appareils de grande consommation à travers des communications sans fil à très basse consommation. Cees Links précise que la consommation de batteries dans les manettes de télécommande serait ainsi réduite de 90%. D’autre part, l’utilisation de communications sans fil pour des manettes de télécommandes est beaucoup plus robuste et plus étendue que l’infrarouge qui ne fonctionne pas si un objet se place dans le rayon. Le standard RF4EC, validé par le consortium ZigBee Alliance, est aussi conçu pour permettre une liaison permettant l’envoie de données dans les 2 sens, ouvrant la voie a de nouvelles applications. Enfin il est conçu pour ne pas entrer en interférence avec les réseaux WiFi ou Bluetooth qui existe dans la maison.

De vastes marchés futurs

Dans un premier temps, GreenPeak a développé des composants pour adresser le marché des télécommandes et estime que sa solution offre une meilleure portée et une plus grande fiabilité que des solutions similaires pour un coût identique à celui de l’infra rouge. Pour Cees Links, « on ne verra plus d’élastique autour des manettes de télécommande pour tenir les batteries dont le boitier est généralement cassé par les nombreuses manipulations ». Il espère vendre plusieurs centaines de millions de composants par an à partir de l’année prochaine. L’économie pour le foyer est aussi substantiel puisqu’une manette sera alimenté pendant 15 ans ou plus par une seule batterie de type 2032 que l’on trouve dans les montres.  Au delà du marché des manettes de télécommande, GreenPeak développe aussi des composants pour une autre extension du standard ZigBee appelé Green Power, qui n’utilise aucune alimentation, mais utilise l’énergie mécanique des interrupteurs sans fil ou manettes de commandes sans fil. Le signal, en général binaire, est généré et transporté grâce à l’énergie générée par la simple manipulation de l’interrupteur. Ce marché est encore plus important que celui des manettes de télécommande, il est estimé à plus de 1 milliard de composants par an dans les années à venir.

Une tablette Apple pour révolutionner le livre

11 décembre 2009

La rumeur ne cesse de circuler et semble se confirmer de jours en jours. Apple devrait sortir une tablette qui ressemble à quelque chose entre un iPhone, un iPod, un Netbook et un eBook dans les semaines à venir. En effet, je me trouvais la semaine dernière à Palo Alto, dans le restaurant favori de Jean Louis Gassée, ancien Président d’Apple, fondateur de Be Inc et Venture Capitaliste lorsque celui-ci rencontre Walter Mossberg, columniste du Wall Street Journal, venu lui aussi prendre son petit déjeuner.  Ils se sont salués et ont échangé quelques mots, mais comme Walt Mossberg à tendance à parler fort, c’est assez commun dans ce genre de restaurant où les gens sont aussi là pour se montrer, j’ai pu (comme un bon nombre de gens autour de moi) entendre ce qu’il disait à Jean Louis.

Il affirmait, non pas avoir vu la tablette, mais  avoir rencontré Steve  Jobs qui lui a confirmé l’existence de l’appareil, qu’il n’était bien sur pas en mesure de lui montrer. Il lui aurait précisé que le projet était très avancé et « very exciting » et qu’il lui monterait, sous embargo bien évidemment, dès que ça serait possible lorsque les premiers prototypes seront stabilisés.

Un grand iPod Touch

Quelques jours après, Yair Reiner, un analyste de la firme Oppenheimer  & Co dans une note destinée à ses clients  précisait que la tablette pourrait être annoncée dès le mois de février prochain et mise sur le marché quelques semaines plus tard en mars ou avril. Au fur et à mesure que les rumeurs se précisent, il semble que l’appareil soit en fait un grand iPod Touch, concurrent du e-book Kindle d’Amazon et des Netbooks PC que l’on connait. Mais son prix sera probablement plus élevé, autour de $1000. L’appareil serait donc équipé d’un écran de 10 pouces environ  utilisant la même technologie d’écran multi touche poly-silicium que l’iPhone. Il serait fabriqué par Wintek Corp qui fabrique déjà l’écran de l’iPhone.

Mais à l’inverse de l’iPhone ou de l’iPod, il aura un OS qui permet de faire fonctionner plusieurs applications simultanément. Pour une des premières fois chez Apple depuis longtemps, le processeur serait fait par Apple, issu de P.A Semi, la société de chip acheté l’année dernière. On peut aussi s’attendre à un appareil avec un niveau substantiel de mémoire flash (64 Go), fonctionnant  en couleur bien sur (ce que le Kindle ne fait pas), doté d’une puce téléphone HSPA  (adapté aux réseaux 3GSM seulement pour l’instant) et d’une interface qui rendre l’appareil très attractif pour toutes sortes d’activités.

Un paradigme d’utilisation toujours inaccessible

On peut s’attendre à des capacités graphique et sonores de haut niveau et une interface qui en fasse l’outil indispensable au quotidien. Il permettrait, chose encore inaccessible aujourd’hui à un individu normal  qui n’aura pas à à passer des heures entières d’apprentissages rapidement oubliées, de lire son journal le matin, d’écouter les nouvelles à la radio,  de vérifier ses mails sur Internet et d’y répondre en prenant son café en écoutant sa musique préférée achetée sur iTunes, de passer un coup de fil au bureau pour dire qu’il sera en retard, d’utiliser cet appareil comme GPS intelligent pour lui permettre de ne pas arriver trop en retard, de regarder les news à la TV sur Internet et d’écrire son premier mémo de la journée pour la réunion qui va commencer.

Le soir il pourra regarder les news à la TV, browser sur Internet les nouvelles de la journée qui l’intéressent ou le concernent  grâce à un système d’agrégation facile à utiliser et finalement s’endormir en lisant le dernier polar numérisé,  regarder un film téléchargé sur Internet ou  jouer à un jeu vidéo en ligne. Destiné à être utilisé le plus souvent outdoor, il disposerait de batteries de longue durée qui seront fournies dans un premier temps par Dyna Pack International Technology Corp, une société Taïwanaise qui aurait gagné un contrat de 300000 modules longue durée à fournir.  Un magazine Taiwannais donne une liste assez longue de sociétés travaillant pour Apple ayant reçu des nouveaux contrats.

Yair Rainer indique que Apple a prévu de vendre entre 1 et 1,5 millions de ces appareils pour le premier trimestre du lancement, basé sur des informations recueillies auprès de Foxconn, l’un des partenaires de fabrication d’Apple en Chine.  Il élabore ensuite sur les marges et le chiffre d’affaire supplémentaires réalisés par Apple grâce à cet appareil pour arriver à un profit par action augmenté de 30% environ en une année. Il n’élabore pas sur les services induits par cet appareil.

Les éditeurs de livres retardent leurs éditions électroniques

Depuis quelques semaines, plusieurs éditeurs de livres américains ont indiqué leur intention de retarder la publication en eBook de certains de leur livres papier. Brian Murray, le CEO de Harpers Collins précisait que chaque mois, il retarderait de 4 semaines à 6 mois la publication de 5 à 10 livres papiers, prévue en format eBook. Il ajoutait que le prix des eBooks à $9,99 était insuffisant sachant qu’ils représentaient un « lourd investissement marketing pour l’éditeur… ! » Il expliquait son intérêt de voir les eBooks mis en vente sur les réseaux sociaux et des boutiques en ligne comme l’App Store d’Apple, espérant trouver là une possiblité de vendre plus cher, alors que Amazon propose déjà des eBook à des prix aussi bas que $6 ou $7.

Ensuite, Simon & Schuster, une filiale de CBS retardait la sortie de 35 livres papiers en eBook de plusieurs semaines pour prendre position contre le prix « bradé » de $9,99 dollars des best sellers papier en eBook. L’industrie du livre semble donc partie sur la même pente qui a conduit l’industrie de la musique où elle est en est aujourd’hui. Ainsi Lagardere SCA du groupe Hachette a indiqué vouloir retarder la publication en eBook de plusieurs livres Américains de 3 ou 4 mois.

L’industrie du livre réagit mal à la numérisation

Donc, plusieurs éditeurs commencent à se rendre compte que leur industrie est  au pied du mur et adoptent des attitudes de replis et de défense en utilisant des pratiques de vente désuètes plutôt que de chercher des solutions innovantes qui leur permettraient d’évoluer. Cité par le Wall Street Journal, James McQuivery un analyste de Forrester précise : « de temps en temps, un secteur des média qui se dit comprendre les réalités numériques change de position sous la pression exercé par le dit numérique sur son business séculaire…  Si vous donnez du contenu numérique aux gens, ils en consommeront encore plus. Mais si vous leur retirez, vous les motivez à acheter le livre de quelqu’un d’autres ou même à envisager le piratage, ce qui n’a pas encore touché l’industrie du livre. Mais il pourrait bien arriver l’année prochaine… ».

Il semble évident que certains éditeurs de livres, dont beaucoup ont compris l’intérêt du Kindle malgré les erreurs commises par Amazon, se rendent compte que profiter de la numérisation pour vendre des livres à prix cassés (par rapport au prix papier qui impose un lourd et cher processus de fabrication, de stockage, de manutention et de distribution) peut leur permettre de capter des parts de marché et de bénéficier ensuite d’une place très profitable. « Le marché du livre papier est  en jeu » dit un agent littéraire New Yorkais  dans une lettre d’alerte qu’il a envoyé à une quinzaine d’éditeurs, « vous n’avez pas beaucoup de temps pour le sauver… » La route d’Apple est ainsi toute tracée.  Il a déjà l’expérience de iTunes avec l’iPod, de l’App Store avec la simplicité de l’iPhone… et Amazon a ouvert la voie pour le livre. Il y a quelques jours le Président Français Nicolas Sarkozy s’en prenait indirectement à une société amie américaine à qui il reproche de scanner le patrimoine culturelle Français. Voici donc une deuxième société amie américaine à considérer…

L’Avicca fait son TRIP 2009

4 novembre 2009

avicca1 milliard d’Euros est le morceau du « Grand Emprunt » que Michel Mercier, Ministre de l’Aménagement du Territoire suggère d’attribuer aux zones défavorisées ou faiblement peuplées dans le cadre d’un plan « Très Haut Débit » qui a du mal à sortir des cartons.

Cette somme de 1 milliard d’Euros devrait  permettre aux collectivités territoriales moins peuplées de financier une partie de leurs infrastructures de fibre pour acheminer l’Internet à très haut débit fixe ou mobile sur l’ensemble de leur territoire, sachant que les opérateurs ne sont pas très intéressés d’investir dans ces zones dites « non rentables ».

Faire démarrer le très haut débit

Michel Mercier sera donc l’invité d’honneur lors de la 5ème conférence annuelle de l’Avicca (Association des villes et collectivités pour les communications électroniques et l’audiovisuel)  « Territoires et Réseaux d’Initiative Publique » qui se déroulera à l’Institut Pasteur les 16 et17 novembre prochain.

Le thème de cette conférence qui réunit en général 3 à 500 personnes élus et hauts responsables de l’aménagement numérique des territoires, est bien entendu le très haut débit (le FTTH) dont on parle beaucoup depuis maintenant plus de 2 ans.

Alors que le département des Hauts de Seine, département riche, a obtenu le feu vert de la Commission Européenne pour le co-financement de l’installation de 800.000 prises FTTH dans les foyers, la question est maintenant de savoir dans quelles conditions les zones moins riches, moins peuplées vont pouvoir activement faciliter le déploiement du très haut débit sur leur territoires, sachant que la priorité des opérateurs les oriente plutôt vers les territoires et les villes les plus peuplées. De quels outils techniques et de quelles informations sur les réseaux existants disposent les collectivités?

Montée en débit, pourquoi, comment?

Des solutions intermédiaires (pudiquement appelées: de montée en débit) s’offrent parfois à eux. Comment en tirer avantage pour faciliter le déploiement du FTTH, et ne pas se retrouver enlisé par des investissements coûteux de courte portée ? Comment l’action des collectivités en matière d’habitat social  peut être un catalyseur ? Comment la mise en place d’un schéma directeur de l’aménagement numérique pour chaque territoire est un moyen d’obtenir une aide de l’Etat mais aussi d’avoir une vision qui permet d’anticiper sur les services à déployer, sur les usages et de planifier une montée en débit efficace moins coûteuse pour la communauté ? Quels sont les montages juridiques les plus appropriés pour permettre aux collectivités de développer durablement  le très haut débit sur leur territoire en assurant l’ouverture des réseaux ? Ce sont les thèmes qui seront abordés et discutés au cours de ces 2 journées.

Enfin L’Avicca consacrera deux  sessions  sur le développement des télévisions locales et régionales et sur la couverture de la TNT… en attendant la Télévision sur la Fibre… !!