Posted tagged ‘Haut Débit’

Completel entre dans le cloud et fait le point sur ses ambitions

2 mars 2011

Le Cloud mérite bien son nom. Il provoque en effet de nouveaux modes de communication aussi légers que ce qu’il signifie. L’entrée dans le Cloud est une nouvelle manière pour les entreprises de donner un petit verni marketing au goût du jour à des activités qui fondamentalement ne changent pas beaucoup et restent généralement floues dans une opacité savamment cultivée, comme il est de mise dans le monde des télécoms. C’est donc un moyen facile de dire qu’on innove sans le faire vraiment. Nous verrons que ceci a une certaine importance chez Completel.

C’est Eric Denoyer, nouveau PDG du groupe Numéricable qui présentait les résultats de Completel. Depuis 2004 Numéricable est détenu par Ypso dirigée par Patrick Drahi que l’on dit être le John Malone Français (moins médiatique cependant). Yspo est une holding financée par Altice, opérateur Luxembourgeois où Patrick Drahi est actionnaire, le fond Anglais Cinven et le fond Américain Carlyle. Completel racheté par Ypso à la fin 2007 pour une valeur d’environ 700 millions d’Euros, est restée depuis comme une entitée séparée. « Celle-ci n’a pas les mêmes activités que Numéricable, car Completel est dédié aux activités BtoB » précise Eric Denoyer, entendez : en direction des entreprises et des collectivités locales, le secteur public représentant 30 à 40% du Chiffre d’affaire de Completel.

Des frontières assez floues entre Completel et Numéricable

Pourtant, dans la réalité, les frontières entre les 2 entreprises semblent très floues, les uns et les autres partageant les infrastructures et les services. Il est en effet impossible de connaitre l’étendue du réseau de fibre de Completel (encore moins sa localisation) et comment il se différencie ou complémente celui de Numéricable. A noter qu’Eric Denoyer est en même temps PDG de Numéricable, de Completel et de Sequalum (la DSP 92). L’une des difficultés de la mise en place de la DSP 92 fut en effet certaines insinuations de la part d’élus de l’opposition dans le département affirmant que Numéricable profitait des subsides de l’Etat pour mettre à jour et étendre son réseau de fibre sur le département. D’aucuns voient dans ce mode de gestion une volonté des investisseurs de Numéricable de se garder la possibilité de revendre par appartements, le moment venu, lorsque la reprise sera effective. C’est aussi ce qui peut expliquer que pour la première fois, Completel communique de façon séparée de Numéricable.

Forte croissance des activités B to B

L’essentiel de la communication de Thierry Podolak, le DG de Completel était orientée vers l’entrée de la compagnie dans cette nouvelle activité appelée le Cloud, alors que l’activité BtoB a été fortement croissante au cours de 2010. « L’activité BtoB (c’est-à-dire Completel) représente 1/3 du CA de Numéricable, c’est-à-dire 465 millions d’Euros après consolidation du chiffre d’affaire de Altitude Telecom, rachetée à la fin de l’année dernière. La croissance est de 22% depuis 2002 et les prévisions sont d’atteindre 500 millions d’Euros en 2011, à périmètre égal. « Notre modèle de développement est de déployer un réseau de fibre optique capillaire en France » indiquait Eric Denoyer en introduction, mais les détails s’arrêtaient là… Pas de chiffres de prévision d’investissement ou de stratégie de déploiement… « Nous sommes dans 65 villes en France » ajoutait Thierry Podolak… !

Des rachats de sociétés depuis 2 ans

L’essentiel de la présentation a été d’expliquer le renforcement des activités de Completel, initialement opérateur de fibre, dans les services grâce à l’acquisition en 2009 de B3G, société spécialisée dans l’IP Centrex (externalisation de la voix sur IP pour les entreprises) puis de Altitude Telecom en 2010 pour ses activités d’IP VPN (réseaux privés virtuels sur IP) et d’hébergement de données. Thierry Podolak présentait la vision de Completel dans le monde des données en entreprises appuyée sur cette nouvelle approche « Cloud ». « Nous permettons aux entreprises d’innover en utilisant Internet et les réseaux sociaux dans les entreprises, de dynamiser les échanges et le partage d’information, de s’organiser autour de l’informatique pour une plus grande efficacité de leurs métiers, de s’adapter aux environnement externes en toute sécurité et enfin de maitriser leurs budget » expliquait-il.

Datacenters et réseaux haut débit

Au centre de tout ça, la mise en œuvre d’un « cœur de réseau » (dont on ne connait pas l’étendue ni la portée) à 100 Gigabits par seconde et le déploiement progressif de DataCenters dont les 3 premiers sont installés à Lyon, Aubervilliers et à Val de Reuil en Normandie. Ces DataCenters seront la base de l’offre de services Cloud de Completel qui doit propulser la compagnie en compétition directe avec France Télécom et SFR. « Nous disposons du réseau et des services ajoutait Eric Denoyer, nous ne sommes pas un intégrateur et nous offrons une offre provenant de chez nous de bout en bout. » Le DataCenter d’Aubervilliers sera donc agrandi de 700 m² pour être équipé pour recevoir 250 baies supplémentaires.

Centré sur un marché rentable et moins concurrentiel.

A l’heure où le pays a du mal à s’engager dans une politique de fibre optique pour tous, Completel renforce sa position sur le créneau des entreprises, dont les évolutions sont plutôt moins rapides et les besoins moins innovants que dans le secteur des usages privés et des données mobiles qui dirigent la croissance exponentielle du trafic des données sur les réseaux. La mise en place d’une offre maison intégrée : réseau + services permet donc à l’opérateur d’améliorer sa rentabilité grâce à des prix « entreprises » sensiblement plus élevés que les prix grand public, accompagnés de services de sécurité et de maintenance rentables, au prix d’investissements relativement modestes comparés aux investissements supportés par les opérateurs classiques puisqu’il ne s’aventure pas dans les zones rurales ni dans la mobilité. Il se centre donc sur un marché moins concurrentiel que celui des télécommunications grand public où n’agissent pas encore directement les opérateurs dit « over the top ».

La FCC veut s’imposer aux opérateurs américains

17 juin 2010

La démarche mérite qu’on la remarque dans un pays qui depuis des années a considéré que laisser faire le marché était le meilleur moyen de développer le haut débit sur son territoire. Les résultats de cette politique de « hands off », encore appelée en Europe « vacance de régulation », pronée par l’administration Bush pendant une dizaine d’années,  à montré les maigres fruits qu’elle apportait…

Le haut débit aux Etats Unis est un marché qui s’est consolidé (pour ne pas dire resserré)  autour de 3 opérateurs monopolistiques (AT&T, Verizon, Comcast)  tout puissants qui se partagent le territoire, peu d’innovation sur les services, des réseaux de qualité assez médiocre voire franchement mauvaise (chez AT&T par exemple), des performances des réseaux médiocres y compris dans les grandes villes, une couverture haut débit en peau de léopard y compris dans les zones de population dense,  du très haut débit ( du FTTB à la Numéricable et non pas du vrai FTTH) qui lie l’utilisateur à son opérateur pour la vie (Bonjour les prix et les services dans 5 ans…! On comprend mieux pourquoi les abonnées ne se pressent pas à la porte), des mesures discriminatoires à l’encontre de certains services, des prix qui augmentent de façon importante (10 à 20% par an environ)  et ne correspondent à aucune amélioration de performance ou de service etc, etc..

Les Etats-Unis se trainent donc dans les 20èmes places au  hit parade de l’OCDE pour le haut débit, alors qu’ils étaient parmi les premiers aux début des années 2000.

Reprendre la main sur le  haut débit

L’arrivé de Barak Obama, « le socialisme vu par les américains » (le communisme même pour certains), a profondément modifié le comportement de l’administration Américaine face aux opérateurs téléphoniques, aux opérateurs de contenus et aux offreurs de services. La FCC couvre en effet à la fois le contenu, les services et les réseaux de transports, contrairement à la France et à certains pays européens qui disposent d’organismes séparés pour le contenu et les réseaux. En effet, constatant l’état quelque peu pitoyable du haut débit aux Etats-Unis et prenant appui sur la crise pour relancer l’économie, le nouveau Président des Etats-Unis mettait, dès avant son élection, une équipe en place pour réfléchir sur une politique plus proactive à mener en matière de haut débit et de très haut débit, fixe et mobile.

L’un des membres actifs de son équipe de réflexion était Julius Genachowski, nommé Chairman de la FCC 6 mois après l’investiture.  Ce dernier était la cheville ouvrière du plan Haut débit aux Etats-Unis, visant à rattraper le retard accumulé en insufflant plusieurs dizaines de milliards de dollars au total sur les infrastructures et les services numériques, directement ou à travers des programmes de soutien dans les différentes administrations fédérales, du jamais vu depuis presque 3 générations de citoyens américains.

Changer le cadre de la régulation

Aujourd’hui,  après avoir bataillé contre Comcas et perdu dans une décision de justice  récente en faveur du cablo-opérateur qui depuis plusieurs années à mis en place des procédures  restreignant et filtrant l’accès à son réseau pour le partage de fichiers en pair à pair, la FCC vient de voter  une consultation publique où elle propose de reconsidérer l’ensemble des services haut débit et d’approcher la régulation sous une nouveau cadre.

En effet, les services d’accès haut débit étaient jusque là considérés comme des « services d’informations », un point sur laquelle un juge s’était appuyé pour permettre à Comcast de se soustraire au champ d’application de la régulation des télécommunications et continuer ses pratiques discriminatoires. La FCC se propose donc de revoir complètement son cadre de régulation de façon à incorporer l’ensemble des services haut débit fixes et mobiles dans les télécommunications. Il pourrrait ainsi appliquer aux réseaux haut débit  la règle du « Common Carrier » (service universel) qui impose aux opérateurs de traiter tous les traffics  sur un même plan d’égalité. « Markham Erickson, direceur de l’Open Internet Coalition précisait : « Il y a vraiment urgence à apporter des modifications parce qu’aujourd’hui, il n’y a aucun code de la route pour protéger les consommateurs contre attitudes de discrimination les plus grossières des opérateurs de câble ou de téléphonie. » L’open Internet Alliance comporte des sociétés comme Google, eBay, Skype et Amazon.

Une probable levée de boucliers

Genakowski, avec ce plan, va se trouver face à une puissante coalition des opérateurs d’accès représentés essentiellement pas AT&T, Verizon et Comcast ainsi qu’un bon nombre de Républicains qui vivent toute régulation comme une atteinte inadmissible à la liberté d’entreprendre. Mais à travers cette volonté d’évolution du cadre de régulation se pose en fait le problème de la Neutralité du Net que la décision du juge de la cours d’appel dans le cas de Comcast empêche de faire respecter sur les réseaux haut débit, permettant aux opérateurs de filtrer les accès aux services de vidéo et de contenu qui viennent en concurrence avec leurs activités.

Ces derniers répliquent que poids de la régulation leur ôtera la flexibilité dont ils ont besoin pour faire évoluer leur réseaux… qu’ils n’ont bien sur pas fait évoluer jusque là – voir le cas de AT&T dans les mobiles et les performances ridicules de son réseau haut débit-  La nouveauté dans la démarche de Genachowski est qu’il propose de réguler de façon plus sélective , un peu plus à la manière des Européens. Il précise bien en effet que les services et le contenu sur Internet ne sont pas concernés par le nouveau cadre et que ses objectifs sont de permettre à la concurrence de s’exprimer et de protéger le consommateur. Ce changement d’attitude du régulateur américain  pour faire appliquer la Neutralité du Net sera assurément contestée par les lobbies des opérateurs qui envisagent d’aller jusqu’à la Cour Suprême. Mais le gouvernement Obama a déjà acquis une bonne expérience de ce genre d’exercice en faisant admettre des mesures de régulation du secteur bancaire..

Qualité du haut débit: La France recule

3 octobre 2009

oviedo8Une étude réalisée conjointement par la Saïd Business School d’Oxford et l’Université Espagnole d’Oviedo, sponsorisée par Cisco a permis d’établir une mesure de la qualité du haut débit dans 66 pays du monde équipés de réseau Internet haut débit. Elle montre une très nette différenciation entre les zones rurales et les zones urbaines en termes de qualité de la couverture et pour la première fois, fournit des bases de comparaison entre la qualité des services mobiles et des services fixes. Basée sur une notation composite appelée BQS (Broadband Quality Score) construite grâce à une agrégation pondérée de la mesure du téléchargement descendant, du téléchargement montant et de la latence constatée dans chaque pays, l’étude montre de très importantes modifications du classement d’une année sur l’autre.

La France perd 4 places

En effet, sur la base des mesures du BQS, la France arrive, cette année, seulement en 14ème place juste devant les Etats-Unis en 16ème place. Entre septembre 2008 et septembre 2009, on constate que la France à perdu 4 places et que les Etats-Unis ont gagné 13 places. C’est la Corée qui cette année se hisse à la première place, dépassant le Japon après avoir augmenté son BQS de 73% à 66. La Suède, en troisème position est le premier pays Européen par la qualité de son haut débit qui est passée de 41 à 57 d’une année sur l’autre. Ces classements ne prennent pas en compte la pénétration du haut débit dans chaque pays.

Les BQS par pays en 2009

Le BQS par pays en 2009

En Europe de l’Ouest, le BQS moyen mesuré sur 20 pays est passé de 30 à 35, soit une augmentation de 13.5%. Les Etats-Unis sont passés de 29 à 34 alors que l’Europe de l’Est est passée de 30 à 38.

Le BQS par pays en 2008

Le BQS par pays en 2008

Le BQS moyen de l’année 2009 pour l’ensemble des pays mesurés est à 32. Il montre une vitesse de téléchargement descendant de 4.75Mbps, en augmentation de 49% sur l’année précédente, un téléchargement montant de 1.3Mbps en amélioration de 69% sur 2008 et une latence de 170 milli-secondes en en baisse de 21% sur l’année dernière.

Le meilleur haut débit à Yokohama

L’étude a aussi fait une comparaison du BQS moyen pour un ensemble de grandes villes parmi les plus peuplées du monde. Elle montre en général d’importantes différences entre les grandes villes et le reste des pays auxquels elles appartiennent. 13 pays montrent des écarts assez importants. La Lithuanie, la Russie et le Latvia montrent les fractures numériques les plus importantes.

Les zones rurales en Suède, en Islande et dans les Pays Arabes montrent un BQS légèrement supérieur aux zones rurales des autres pays mesurés. La ville de Yokohama au Japon affiche un BQS de 85 alors que la ville Lithuanienne de Kaunas en troisième place affiche 79, Malmo en 6ème place se situe à 67 et le BQS de Rotterdam en 11ème place atteint 55.

Une étude annuelle basée sur 24 millions de mesures

L’étude est publiée au début du mois d’octobre de chaque année depuis 2008. Elle permet  d’établir une analyse de la manière dont les 66 pays ont amélioré la qualité de leur haut débit d’une année sur l’autre. Elle est basée sur l’analyse de 24 millions de tests de rapidité effectués en 2009 entre mai et juillet à travers le site speedtest.net.

VIDEO-SURVEILLANCE , UN FORUM POUR L’INTEROPERABILITE

25 septembre 2009

video surveillanceLe salon Odebit 09 qui s’est tenu cette semaine à Paris a vu l’annonce du Forum Open IP-Vidéo, dont l’objectif est de réunir les professionnels qui interviennent dans la chaine de valeur (matériel, logiciel et services) de la vidéo surveillance. L’objectif du forum est de susciter l’innovation dans ce secteur en facilitant le développement de nouvelles technologies dans un environnement ouvert et en facilitant l’interopérabilité des applications, des services et des matériels.

Une volonté ministérielle

Encore Ministre de l’Intérieur, Michèle Alliot-Marie  indiquait vouloir faire tripler le nombre des caméras sur la voie publique, de 20000 à 60000 avant la fin de l’année 2009 en dégageant des financements pour les collectivités. Un rapport récent de l’IGA (Inspection Général de l’Administration), non publié, cité par le Figaro précise : «L’analyse des statistiques de la délinquance montre un impact significatif de la vidéoprotection en matière de prévention puisque le nombre de faits constatés baisse plus rapidement dans les villes équipées que dans celles où aucun dispositif n’est installé» le rapport constate que : «L’impact le plus significatif concerne les agressions contre les personnes où la progression a été mieux contenue dans les villes équipées de vidéoprotection», révèlent-ils. Depuis 2000, en zone police, alors que ces actes ont grimpé de plus de 40 %, ils ont augmenté deux fois moins vite dans la cinquantaine de villes vidéosurveillées. Le ministère de l’Intérieur a mis en place un site pour aider les collectivités qui souhaitent s’équiper.  http://www.interieur.gouv.fr/sections/a_votre_service/vos_demarches/video-surveillance

Des matériels interopérable et des standards ouverts

Les communes les plus sensibles se sont donc lancées dans des programmes d’installation de systèmes de vidéo-surveillance dans les endroits publics. Les services de polices utilisent maintenant de plus en plus fréquemment les enregistrements vidéo pour traquer les actes de violence et les infractions sur le domaine public. Mais comme beaucoup de technologies émergeantes, les constructeurs offrent de nombreux produits, tous aussi innovants les uns que les autres, mais souvent incapables de communiquer avec les produits de leurs concurrents, mettant souvent les communes dans des situations de dépendance à long terme vis-à-vis de la solution d’un constructeur ou d’un fournisseur particulier. C’est pourquoi, en France, plusieurs fournisseurs de systèmes complets de vidéo-surveillance ou des fournisseurs de composants matériels ou logiciels de systèmes de vidéo surveillance ont décidé de crée un Forum qui aborde non seulement les aspects technologiques des systèmes de vidéo-surveillance, mais aussi les aspects économiques sociaux et réglementaires concernant la mise en œuvre des écosystèmes de vidéo-surveillance dans les villes et les endroits publics. Le Forum comprend une dizaine de sociétés fondatrices dont Sony et Mobotx dans le secteur des caméras, Alvarion et Microsens chez les constructeurs de réseaux et télécom, CASD, Milestone et Nice pour les éditeurs de logiciels, Overland pour les infrastructures de stockage et

Voir l’interview de Gary Goldenberg, président du Forum Open IPVideo   www.open-ipvideo.org

H1N1 : Une opportunité pour le télétravail, les TIC, le haut débit

23 août 2009

mairieLe 3 juillet dernier, la Direction Générale du Travail publiait une circulaire dite « relative à la pandémie grippale » qui est attendue cet automne en France et un peu partout dans le monde.  L’objet de la circulaire est de prévoir et susciter la mise en place d’un certain nombre de dispositifs pour assurer la continuité du fonctionnement de l’économie du pays, dans les entreprises mais aussi dans les administrations. Deux cas sont prévus : dans le cas d’une pandémie touchant jusqu’à 40% de la population sur une période estimée à 10 ou 12 semaines, mais dont les conséquences sanitaires sont limitées, il s’agit d’être en mesure d’assurer l’essentiel du fonctionnement des entreprises et de l’administration. Dans le cas où la pandémie fait de nombreuses victimes imposant la mise en place d’importantes mesures de sauvegarde des vies humaines, il s’agit de prévoir et prendre en charge une interruption plus ou moins longue des administrations et entreprises pour limiter la contagion. L’objectif, dans les deux cas, est de mettre en place des dispositifs qui faciliteront et assureront le fonctionnement de l’économie.

Une opportunité pour le télétravail

Il est facile d’en imaginer les résultats qui, dans le meilleur des cas, seraient à peu près équivalents aux conséquences de la grève SNCF de l’hiver 1995 qui a complètement paralysé la France (et surtout la région parisienne) pendant près d’un mois. Laissons à l’imagination collective le soin de produire les scenario catastrophe plus extremes… C’est là qu’Internet, les Telecom et les TIC peuvent jouer un rôle important en permettant aux entreprises et aux administrations de fonctionner en mode virtuel, une grande partie du personnel travaillant depuis la maison de façon à éviter qu’il ne soit contaminé. Ainsi, l’Association Française du Télétravail et des Téléactivités (AFTT) publiait un communiqué rappelant que la démarche d’anticipation et d’élaboration du Plan de Continuité d’Activité (PCA) est obligatoire pour les administrations de l’Etat et les établissements publics placés sous sa tutelle et fortement recommandé pour les collectivités territoriales et pour les entreprises. Cette démarche préconise entre autre la mise en place d’une organisation du travail à distance pour des activités clés de façon à protéger le personnel, tout en continuant l’activité. Un rapport publié en 2004 s’étend longuement sur les aspects juridiques, organisationnels et historiques du phénomène,  sans cependant s’attarder sur les outils pour le mettre en œuvre. Il est certain que la pratique du télétravail est encore assez peu développée en France, essentiellement à cause de la rigidité des lois du travail.

Les TIC à la rescousse du PCA

D’un point de vue pratique, les administrations, les collectivités territoriales et les entreprises ont donc quelques semaines pour mettre en place un dispositif opérationnel qui permette, dès les premiers signes de pandémie ou les injonctions du gouvernement, de limiter l’exposition au virus et la contamination en maintenant les gens à leur domicile tout en leur offrant des conditions matériel leur permettant de continuer de travailler. C’est ici que l’atout d’Internet et du haut débit fixe et mobile apparaissent clairement. L’existence des réseaux DSL, des réseaux mobiles 3G et des acces WiFi pour les particuliers s’avère donc un élément clé du dispositif. Des solutions informatiques dites « de virtualisation » existent déjà et ont été mises en place dans des organisations qui pratiquent déjà le travail à distance, notamment les administrations, collectivités ou entreprises qui ont une forte proportion de personnel mobile. Elles nécessitent cependant un important matériel serveur, des logiciels de virtualisation, des adaptations spécifiques donnant accès aux applications et aux données intranet de l’entreprise dans l’environnement virtualisé, une préparation organisationnelle et des adaptations de l’architecture du système informatique de l’entreprise de façon à assurer une parfaite sécurité. Il faut aussi fournir un ordinateur portable dédié à chaque salarié travaillant à l’extérieur, mettre en place une gestion du parc et des autorisations d’accès pour chaque PC et enfin un service de support. Le processus de mise en oeuvre de virtualisation prend donc plusieurs mois et coûte assez cher mais à terme modifie le fonctionnement de l’entreprise en profondeur.

Une solution simple, rapide et économique

La société Amosdec , distributeur en France de VMWare spécialiste des systèmes de virtualisation, vient de mettre en place une offre packagée offrant aux collectivités locales et aux entreprises de petite taille et de taille moyenne une solution rapide et moins coûteuse pour mettre en place un système de travail à distance totalement sécurisé, sans pour autant disposer d’un environnement informatique virtualisé, ni d’une flotte de PC portables attribué à chaque salarié travaillant de chez lui. « Nous utilisons le logiciel VMware View 3 Entreprise explique Jacques Heller, Directeur des ventes d’Amosdec. Nous l’avons packagé pour une installation rapide, avec tout le support 24 x 7, pour des organisations publiques ou privées qui veulent virtualiser jusqu’à 50 postes de travail ou plus, à un coût fixe et unique d’environ 200 euros par poste. Cette solution est mise sur le marché par le biais de nos revendeurs et offre une passerelle sécurisée immédiate de télétravail . » La solution offre en effet une série d’outils qui permettent à une organisation de facilement virtualiser certains postes de travail choisis, grâce à une simple console de paramétrage  sous l’unique contrôle du responsable en charge du système informatique. Le responsable du système peut ainsi, à tout instant, donner à un employer la capacité de travailler de chez lui ou même d’un Internet café, en toute sécurité. Par exemple, une Mairie peut décider de virtualiser le poste de travail de l’employé d’Etat Civil ou le poste de travail de gestion de la cantine scolaire ou encore des ressources humaines. Les données et les applications qui permettent le fonctionnement de ces postes ne sortiront pas de la Mairie. Mais grâce à un ensemble d’outils gérant l’authentification et l’accès sécurisé par Internet, une fois que lui auront été attribués les code d’accès, un employé pourra retrouver son poste de travail familier, en se connectant de chez lui sur l’ordinateur de son fils ou de sa belle mère en utilisant un simple browser et retrouvera son environnement de travail familier dans les mêmes conditions que si il était à la Mairie. Doté d’un téléphone, d’un simple PC (portable ou pas) et d’un accès haut débit. Il pourra donc travailler de chez lui et accéder aux données dont il a besoin, en toute sécurité, sans avoir à se déplacer.

La peur de la pandémie accélérera-t-elle le déploiement du télétravail en France ?