Archive for the ‘Trés haut débit’ category

CES 2016: AMAZON ET LA MAGIE DES PLATEFORMES INTELLIGENTES

27 janvier 2016

Précurseur et pionnier du Cloud avec sa plateforme AWS, Amazon s’appuie sur une plateforme qui s’enrichi progressivement et devient intelligente en étant capable d’héberger, de traiter et d’analyser de grosses masses de données partout dans le monde. Explications et quelques exemples significatifs en direction des objects connectés.

Pourquoi Netflix se développera-t-il sur 130 nouveaux pays en moins d’un an?

Anthony Passemard est à la tête de l’écosysteme des partenaires ISV (Independant Software Vendors) pour le nouveau segment des IoT et des Mobiles chez Amazon. Il a expliqué aux 200 responsables grands compte de la Mission CES 2016 Xavier Dalloz, comment Amazon, grâce à sa plateforme Cloud qui héberge Netflix, a permi à Read Hashtings son CEO d’annoncer au cours du CES qu’il allait s’installer dans plus de 130 nouveaux pays au cours de l’année 2016… parce que Amazon est présent dans ces pays. Par exemple en France, Amazon permet à Netflix de concurrencer Canal+ directement sur son coeur de métier sans avoir à supporter d’important coûts d’investissements d’infrastructure grâce à AWS.

Anthony Passemard présentait ensuite quelques chiffres sur les activités spécifiques de AWS qui fonctionne comme un service autonome, avec comme client Amazon.com, le service de ventes en ligne, traité exactement comme le sont les 1 million d’autres clients de AWS. Le chiffre d’affaire de AWS, aujourd’hui publié séparément, était de 2.09 milliards de dollars pour 2015, en croissance de 78% d’une année sur l’autre.

La plomberie, c’est l’affaire d’AWS

Quels sont les avantages d’une plateforme Cloud de type AWS? Il indique 5 grandes raisons:

  • La flexibilité: elle permet de commencer avec une installation test, de la modifier, de repartir dans d’autres directions en fonction des évolutions des innovations dans son coeur de métier.
  • Les coûts: Le service Informatique n’est plus un poids, lent, lourd difficile à faire bouger et coûteux. C’est une plateforme peu coûteuse qui permet de tester et d’entrer en production très vite. Par exemple, le Dow Jones a fait 100 millions de $ d’aconomie par an en passant sur AWS. L’US Navy a réduit ses coûts d’infrastructure IT de 60%
  • L’élasticité: elle permet de supporter les fluctuations saisonnières ou accidentelles sans avoir à supporter l’infrastructures maximum toute l’année. Les ressources informatique sont mieux distribuées dans le temps et l’espace, sans avoir a être immobilisées en parmanence.
  • 10 ans d’expérience: AWS a été l’un des grands précurseur du Cloud et au cours de ces 10 années s’est considérablement enrichi en même temps qu’il se deployait dans le monde entier. Cette année, plus de 500 nouvelles « features » ont été ajoutée à la plateforme qui peu convenir à un nombre toujours plus élargi de situations différentes.
  • Global: AWS est présent dans 12 régions dans le monde (le dernier pays ouvert est la Corée) et dispose de 50 points de presence dans le monde.

AWF est en fait un véritable opérateur de services informatiques, de données et de communication qui entre en compétition avec les opérateurs téléphoniques et les opérateurs de télévision, les sociétés de services. Hébergeur de données en provenance du monde entier, elle peut aussi développer des activités de services autour d’applications plus ou moins spécifiques d’analyses de ces données.

Amazon avec AWS pour l’Internet des Objets s’appuie sur ses partenaires

Anthony Passemard passait ensuite la parole à Jean Paul Huon, CTO de la société Z#bre, une société de services Française qui a developpé des solutions à bases d’objets connectés basées sur la plateforme AWS, ce qui permet une mise en oeuvre et une scalabilité quasi instantanées.

Dans le secteur de la santé (developpé dans le département du Loiret avec le Conseil Général), Jean Paul Huon explique qu’il a developpé un boitier qui permet de monitorer les services à la personne. Derrière le boitier qui recueille les données  se trouve une plateforme intelligente dotée de nombreuses fonctionnalités qui permettent de savoir par exemple les heures réelles de visite des personnes qui dispensent les soins ou apportent de l’aide, de recevoir des information d’autres objets connectés dans la maison comme un thermomètre pour s’assurer que la température est optimale dans la maison etc… Les informations traitées sont redistribuées a toute une serie d’organismes intervenants, y compris la famille qui peut recevoir des alertes.

En 6 mois, le département a pu installer et mettre en oeuvre 10000 objets connectés, et la réduction de la facture pour le département qui gère les services a la personne est estimée à 3 millions d’Euros. Reste à réaliser les interfaces avec les systèmes existants…

 

 

AVICCA: Le très haut débit est-il en panne?

20 mars 2012

Le colloque bi-annuel de l’AVICCA qui s’est déroulé hier posait la question de la mise en œuvre du plan très haut débit en France et très clairement, son Président Yves Rome sonnait le signal d’alarme, une fois de plus. Cependant pratiquement au même moment à Bruxelles, Stéphane Richard, PDG de France Télécom et Neelie Kroes, Vice-Présidente de la Commission Européenne pour l’Agenda Numérique se congratulaient, le premier fier de ses 10 nouveaux engagements et la seconde sur son action pour une économie numérique européenne compétitive et durable.

Pas de 2 médiatique ?  Deux des 10 engagements de Stéphane Richard portent en effet sur le haut débit : le premier sur le déploiement du réseau 4G/LTE dans toutes les filiales européennes d’Orange d’ici 2015 et l’autre, vieux serpent de mer en France, est le déploiement du FTTH pour 15 millions de foyer et 80% de la population Française d’ici 2020…

 Les objectifs 2020 ne seront pas atteints

Très clairement, selon Yves Rome, on sait dès aujourd’hui qu’à la vitesse où le déploiement se réalise en France aujourd’hui, on sera loin d’atteindre le second objectif à l’échéance indiquée… Comme d’habitude, les opérateurs ne tiennent pas leurs promesses, où ils expriment leurs promesses de façon tellement peu mesurable qu’ils auront de toute façon raison à la fin… Il faut reconnaitre cependant que ce comportement n’est pas une prérogative uniquement spécifique à France Télécom, mais celui-ci est beaucoup plus visible du fait qu’il est l’opérateur historique en position dominante… France Télécom est ainsi considérée dans le milieu des collectivités locales comme étant celui qui a fortement ralenti, voire empêché, le développement rapide de la fibre en France. Le colloque de l’Avicca a été l’occasion pour de nombreuses collectivités de l’exprimer en expliquant leur action pour la mise en place de réseaux de fibre à destination des abonnés, réseaux de fibres qu’on appelle RIP (réseaux d’initiative publique), un sigle qui pourrait aujourd’hui être considéré comme une certaine forme d’humour noir.

La France numérique, 17ème en Europe, prend du retard dans le FTTH

Yves Rome, dans l’introduction qu’il faisait de cette journée, pose très clairement le problème des opérateurs qui font de grandes et jolies promesses et qui ne les tiennent pas, pour des raisons toutes aussi valables les unes que les autres, tant qu’il n’y a pas de sanction. Aujourd’hui, les opérateurs ont cessé de s’intéresser au FTTH fixe, au profit du mobile. Il ne manque pas de mentionner que la France, dans le concert  Européen des nations fibrées, est aujourd’hui classée en 17ème position pour le taux de pénétration de la fibre à l’abonné, entre la Turquie et la république Tchèque… !

Volonté et transparence sont en berne chez les opérateurs privés pour ce qui concerne le FTTH et leur sincérité est fortement mise en cause dans la mesure où ils refusent la mesure des objectifs et la sanction de ceux qui ne sont pas atteints. Se jouant des différents mécanismes incitatifs qui ont été mis en place, au niveau réglementaire et financier, les opérateurs, dans leur comportement, nient presque complètement les réseaux d’initiative publique et entrent même en concurrence avec eux, en cassant les prix ou en construisant leur propre réseau en doublon, là où l’argent public des contribuables a déjà été sollicité, ou encore en s’abstenant de s’impliquer, là où il serait souhaitable et pourtant rentable pour eux. Cette situation doit-elle changer ? Peut-elle changer ? Mais comment ?

Yves Rome, introduction du colloque de l’Avicca du 19 mars 2012

LE BATIMENT INTELLIGENT AU COIN DE LA RUE… NOUVELLES PROBLEMATIQUES

6 mars 2012

En moins d’une décennie, Internet et la téléphonie mobile ont profondément et radicalement modifié la vie des gens alors que les impacts du téléphone, de l’électricité ou du moteur à explosion se sont échelonnés sur ¼, ½ voir presque 1 siècle. C’est en créant de nouveaux usages que ces technologies ont suscité la création de nouvelles infrastructures qui elles même entrainent de nouveaux usages… Les télécommunications, liées aux enjeux énergétiques, commencent maintenant à impacter l’habitat avec l’arrivée des bâtiments intelligents.

C’est pourquoi, dans le contexte de cette problématique émergeante, que Roland Dubois, président d’ASPROM, organise deux jours de séminaire/formation sur le thème de l’habitat intelligent les 20 et 21 mars 2012 à Paris.

Le cercle vertueux infrastructure-usages

Le tout numérique continue sa progression dans la vie quotidienne de chacun. La connectivité partout, tout le temps et pour chacun est déjà intégrée dans les mœurs des plus jeunes et chaque jour voit naitre de nouveaux usages. Le processus de diffusion de ces nouveaux usages dans les différentes couches de la population entrainent les opérateurs, les constructeurs, les fournisseurs de services, les municipalités, les gouvernements… à développer les infrastructures de télécommunications qui permettent de répondre à cette demande, toujours croissante. Les réseaux de fibre optique, on le voit depuis 4 ou 5 ans maintenant, sont devenus une affaire nationale, une obligation incontournable, un élément de la compétitivité économique d’un pays parce qu’aujourd’hui, il est courant et normal de regarder des photos, des films, des vidéos, la TV et d’échanger des contenus multimédia sur Internet.

Des milliers de services développés sur Internet sont rapidement devenus indispensables pour la population et les entreprises. De même, l’amélioration et l’extension des réseaux de téléphonie cellulaire à Internet sont devenues un enjeu pour chaque pays, parce que les services qu’ils offrent deviennent immédiatement incontournables. Il est maintenant presque impensable pour un individu normal de ne pas disposer d’un ordinateur, d’une connexion internet et d’un smartphone, tout comme il est impensable pour un pays de ne pas se préoccuper de ses infrastructures de télécommunications fixes et mobiles.

L’émergence de la problématique énergétique autour du bâtiment

La problématique énergétique donne une nouvelle dimension à la prolifération des télécommunications et des services numériques dans notre vie quotidienne. En effet le contrôle des dépenses d’énergie ou la production locale d’énergie, sont devenu une responsabilité individuelle et collective et elles passent immanquablement par Internet et les telecom, à la maison, dans les entreprise ou dans les villes. Le bâtiment, pris dans son ensemble, est le secteur qui effectue plus de 40% des dépenses d’énergies en France.

D’énormes pertes d’énergie ont lieu tous les jours dans des bâtiments parce que personne ne sait avec précision ce qui est consommé, par quoi ou qui,  et pourquoi ? Ainsi, la réduction de moitié de la consommation du pays (un objectif fixé par les politiques lors du Grenelle de l’environnement) ne pourra pas se faire en ignorant les énormes pertes d’énergies dans les bâtiments, usines et immeubles qui couvrent le territoire. D’autre part, la tâche est collective, c’est-à-dire qu’elle implique les pouvoir publics, les entreprises et les individus eux-mêmes. Il est donc indispensable, et aujourd’hui possible grâce à la convergence d’Internet et des télécommunications fixes et mobiles, de rendre les bâtiments intelligents, c’est-à-dire contrôlable et maîtrisables du point de vue de leur consommation énergétique. Le bâtiment devient intelligent à partir du moment où sa consommation énergétique est mesurée et contrôlée grâce a des dispositifs de monitoring (capteur, systèmes d’analyses, contrôle des appareils électriques etc…).  Mais quelles en sont les conditions, les étapes, les coûts, le enjeux ?

Un séminaire sur l’habitat intelligent réalisé par ASPROM

Au sommaire du séminaire le mardi 20 mars, Jean Robert Millet, (responsable de la division Energie au CSTB (Centre Scientifique et Technique du Bâtiment) examinera les enjeux et les défis posés par le grenelle de l’environnement à l’objectif 2020 dans la mesure où les bâtiments neufs devront être à « énergie positive ». Le changement est radical puisque non seulement les bâtiments devront moins consommer, mais ils devront aussi contribuer à produire de l’énérgie. Commen les villes vont-elles intégrer cette problématique ?

Ensuite, François Pelegrin, Architecte DPLG élaborera sur les stratégies de ruptures possibles en matière de construction pour garantir les coûts, les délais et la fiabilité des nouveaux systèmes constructifs et obtenir des bâtiments véritablement performants.

Un exemple sera décrit par Sébastien Prévot, responsable du pôle R&D chez Cardonnel Ingelerie autour de l’impact de la RT2012 sur la conception des bâtiments tertiaires et la manière dont ils peuvent améliorer les conditions de travail et la productivité.

Régis Lecussan, directeur de Raycreatis montrera l’apport de valeur d’un logiciel communicant de collaboration entre l’architecte et le thermicien.

Arthur Vinson (Responsable Développement Systèmes Constructifs chez Lafarge) abordera la nouvelle règlementation thermique, ses enjeux et son impact sur les méthodes de travail lors de la conception des bâtiments. Il présentera des systèmes constructifs performants traditionnels et innovants.

Par Olivier Servant, Directeur des Marchés – Saint Gobain habitat France abordera les détails de l’optimisation de l’isolation (sols, murs, plafonds, ponts thermiques) en application de la RT2012 pour le neuf et l’anticipation des règles 2020. Il présentera la maison Saint Gobain Multi-confort en pointant sur les techniques utilisées qui permettent de construire des maisons de la génération 2020. Il abordera aussi les aspects de la rénovation des bâtiments existants.

Olivier Gaignon, délégué général de Ignes abordera la problématique de la « smart home » ou la domotique communicante au service des citoyens. Il traitera du logement résidentiel ou collectif et fera le point sur les outils la manière de les intégrer simplement pour se rapprocher des smart grids, ou smart cities…

Olivier Flechon, Chef du Laboratoire d’Energétique du Bâtiment, CEA INES (Institut National de l’Energie Solaire) présentera la plateforme Incas qui comporte 10 bancs de test pour l’intégration du photovoltaïque dans les bâtiments ou résidences.

En fin de journée, Hervé Mary, Directeur Général du LAN abordera le thème de  La maison numérique : nouveau foyer d’intelligence. Il examinera l’impact du développement des réseaux d’infrastructure numériques fixes et mobiles sur la maison et l’utilisation des appareils électriques et électroniques qui la peuplent.

Au sommaire du séminaire le mercredi 21 mars, Eric Nicolas, Délégué au Gimelec abordera le bâtiment Intelligent et ses technologies. Comment répondent elles aux impératifs de coût, de confort, de services, de sécurité et de flexibilité. Il déterminera le QI du bâtiment intelligent.

Patrick Heinrich, Directeur Total Building Solutions chez Siemens abordera la notion de GTB (gestion technique du bâtiment) et son impact sur l’efficacité énergétique du réseau.. La GTB fédère les différents métiers techniques du bâtiment et l’objectif est de passer d’une GTB de «contrôle/commande» à une hypervision globale de bâtiment, plus particulièrement avec l’arrivée des bâtiments à énergie positive.

Stéphanie RICHE, Chef du Laboratoire Systèmes de Capteurs Multimodaux au CEA-LETI apportera des éléments de réponse sur l’apport des TIC dans l’efficacité énergétique des bâtiments. Elle présentera une plateforme expérimentale baptisée@home pour prototyper /maqueter les réseaux de capteurs et actionneurs hétérogènes.

Axel Buendia, Gérant de SpirOps présentera les outils d’intelligence décisionnelle qui offre une assistance pour économiser l’énergie, améliorer le confort et renforcer la sécurité. D’un rôle d’assistant, ces outils deviennent  un vecteur actif de l’évolution des comportements énergétiques des citoyens.

Olivier Hersent, PDG d’Actility traitera de l’évolution vers IP des bus de terrain du bâtiment. La présentation évoquera les nouvelles contraintes d’ouverture des systèmes d’information du bâtiment, vers les locataires notamment. Il parlera aussi de l’évolution des standards récents comme ETSI M2M et 6LowPAN et de leur impact sur la prise en mais par les utilisateurs.

Yves Aiilerie, Business Development Manager chez Intel France et Renaud Deschamps, Directeur général de Lexmark France, président du SFIB (syndicat des industries des technologies

de l’information) parleront de l’impact des bâtiments à énergie positive sur les utilisateurs. Ils décriront le GIE « Enjeu Energie Positive » auquel participent leurs sociétés qui ont développé l’application POEM (Personal Office Energy Monitor), en fonction sur plusieurs sites pilotes.

Enfin pour clôturer les 2 jours, Eric L’Helguen, DG d’Embix (société commune Altsom-Bouygues) détaillera les solutions de mutualisation et d’optimisation mises en oeuvre au niveau de la « Smart City » et s’appuiera sur l’exemple pratique du premier réseau intelligent de quartier, Issy Grid

Retour de Barcelone MWC 2012 – Fréquences rares et nouvelles architectures

4 mars 2012

Cette année, il a fait beau. Pas de parapluies ou d’imperméables, mais un beau ciel bleu et un temps assez doux. Est-ce un indicateur du temps qu’il fera au cours de cette année mobile ? Les multiples annonces effectuées durant cette manifestation semblent le présager… Mais  je ne suis pas vraiment très sûr que le beau temps soit au rendez vous sur le long terme…

Les fréquences hertziennes, « l’or noir » de l’économie du mobile

Les fréquences hertziennes sont à la base de tout l’écosystème du mobile qui s’était réuni à Barcelone à la fin de ce mois de février 2012 comme il le fait depuis maintenant 7 ans. Les fréquences hertziennes sont à l’économie de la téléphonie et de l’internet mobile ce que le pétrole est au vaste système économique construit autour de l’automobile.  Outre un mode de fonctionnement assez complexe, parfois assez mystérieux, voir magique (ou encore maléfique) pour le grand public,  la grandes particularité des fréquences est d’être une ressource rare. Pourtant, jusqu’à une époque assez récente, on ne se souciait guère ce cet aspect clé… un peu comme le pétrole qu’on a largement gaspillé pendant des années et dont aujourd’hui on voit les réserves s’épuiser.  Les fréquences hertziennes disponibles pour alimenter une demande croissante de services mobiles et transporter des quantités de données en croissance exponentielle sur des territoires toujours plus vastes sont extrêmement rares.

Améliorer l’information sur les fréquences

Pour cela, il faudrait mettre en place une véritable politique de gestion des fréquences, à la fois au niveau de chaque pays et au niveau international, permettant une meilleure information et une plus grande transparence. La récente tentative manquée du rachat de T-Mobile par AT&T aux Etats Unis, qui s’appuyait sur une argumentation plus ou moins crédible autour d’un soit disant manque de fréquences pour couvrir le territoire en 4G, a bien mis en évidence les besoins d’information et de clarté sur les choix et les équations économiques de certains opérateurs. Ainsi AT&T en mettant la main sur un vaste ensemble de fréquences, renforçait et verrouillait son monopole sur l’ensemble du territoire américain.

Lors du MWC 2012, le Dr Hamadoun Touré, Secrétaire Général  de l’ITU (International Télecommunication Union) rappelait le rôle éducatif de l’institution qu’il dirige. « L’attribution des fréquences est un processus complexe qui répond à des règles techniques précises, plus particulièrement parce qu’il faut prévenir les interférences, expliquait-il.  Mais elle répond aussi à de longs processus de négociations entre les acteurs qui participent à leur utilisation.» Pour lui, il est nécessaire de promouvoir une régulation fortement renouvelée qui ne soit plus basée sur la prédominance de la voix mais prenne en compte les nouvelles caractéristiques du monde des télécom ou les données prédominent sur les réseaux mobiles à haut débit. « Nous devons faciliter une meilleure régulation, ajoute-t-il, qui crée de la valeur et de la concurrence et permettre le passage de l’analogique au numérique, dans tous les pays. »

Partage et mutualisation des réseaux.

Dr Hamadoun Touré Sec Gal ITUUne information plus détaillée sur les processus d’allocation des fréquences et de partage des réseaux (fixes et mobiles) semble donc nécessaire. En effet la dernière conférence WRC-12 de Genève en janvier 2012 mettait en place les fondements d’une nouvelle régulation des fréquences après 4 semaines de négociations intensives ou les enjeux comme la mutualisation, l’usage efficace du spectre, le partage des infrastructures ont été longuement discutés. Certains aspects de partage et de mutualisation des réseaux mobiles renvoient directement à la récente polémique inepte autour de la couverture du réseau du nouvel opérateur Free Mobile en France. Des attitudes rétrogrades comme celle de Jean Bernard Levy patron de SFR qui accuse France Télécom d’avoir louée son réseau à Free montrent un évident besoin d’information et d’explication pour le grand public. Une plus grande transparence sur la manière dont sont allouées les fréquences (un bien public rare), sur la manière dont sont partagés (ou pas) les réseaux fixes et mobiles permettront aux utilisateurs de mieux différencier les offres et améliorera la concurrence sur le marché…

La qualité des réseaux mobiles laisse à désirer

L’arrivée de la téléphonie mobile 4G est maintenant une chose acquise, mais la question reste de savoir quand les déploiements commerciaux auront-ils lieu ? Les réseaux sont-ils prêts ? Y aura-t-il suffisamment de fréquences pour répondre aux besoins toujours croissant de transport des données pour chacun, en tous lieux et à toute heure ? Quels investissements ces réseaux nécessitent-ils?  Quelle mutualisation des réseaux faut-il promouvoir pour accroitre l’efficacité des infrastructures et en baisser les coûts ?  Aujourd’hui, quelques pilotes pré-4G, fortement relayés médiatiquement, ont lieu dans plusieurs pays dont la Suède et les Etats Unis, mais dans la réalité, les réseaux 4G ne sont pas encore là et la qualité des réseaux mobiles laisse à désirer. D’autre part, le problème de la voix sur le 4G n’est pas encore résolu et plusieurs solutions étaient présentées à MWC par Fraunhaufer, Qualcomm ou d’autres fabricants de composants.

Une nouvelle vague d’innovation dans les équipements

Au MWC de Barcelone un foisonnement de nouvelles technologies et d’architectures pour l’équipement de ces réseaux était présenté chez les grands équipementiers, et les moins grands. Ainsi parmi les grands, Alcatel-Lucent cherche à reprendre la main en matière d’innovation pour ne pas se laisser désintégrer par les équipementiers chinois très agressifs ou par le géant Coréen Samsung qui a clairement indiqué ses intentions dans ce secteur. Quelques start’up Françaises comme e-Blink se distinguent par des solutions originales.

L’arrivé du 4G, beaucoup plus puissant,  plus souple et plus flexible que le 2G et 3G, pose de nouveaux problèmes d’architecture de réseau qui nécessitent des approches nouvelles.  Il en résulte un regain d’innovation sur la manière de multiplier les cellules pour augmenter la couverture et répondre à la demande exponentielle d’un nombre croissants d’utilisateurs, tout ceci compte tenu du spectre disponible. D’autres développements innovants apparaissent aussi sur la manière de soulager le réseau cellulaire en basculant automatiquement vers les réseaux WiFi. Cependant l’approche femtocells où le particulier dispose d’un boitier à la maison qui relaie le signal 3G et assure le basculement vers le WiFi, semble avoir été abandonnée par les opérateurs qui voient dans ce boitier une menace sur la sécurité de leurs réseaux.

Telcité connecte les entreprises à leurs datacenters en région parisienne

14 novembre 2011

Pendant que le FTTH parisien fait du sur place, bien que l’ensemble du sous sol soit totalement fibré (via les égouts), car la fibre a du mal a monter dans les immeubles et les appartements de Monsieur tout le monde, Telcité, filiale à 100% de la RATP, continue d’étendre sa toile de fibre noire sur l’ensemble de l’Ile de France pour des connexions fibre destinées aux industriels et aux opérateurs.

La RATP dans la fibre

Crée en 1997 pour gérer un réseau de fibre noire installée dans le réseau du métro et RER parisien, cette société a aujourd’hui déployé 1600 km de fibre non allumée destinée aux entreprises et aux opérateurs fibre sur laquelle ont été disposés 400 points de présence passifs (qui ne sont pas des points de présence Internet). Ce réseau, déjà interconnecté directement avec un certain nombre de réseaux de l’Ile de France, IRISE (géré par le Sipperec et dont Telcité est aussi actionnaire), Sem@for77 (DSP du CG 77 gérée par Covage) Connectic 78 (DSP du CG 78 gérée par Eiffage), est depuis le début du mois d’octobre connecté au réseau de Covage sur le département de l’Essonne (91) qui jusqu’à présent n’a pas de Réseau d’Initiative Publique (RIP).

Opérateur d’opérateur

Telcité est un opérateur de fibre un peu particulier. C’est en effet une société privée qui utilise le réseau de tunnels du métro pour installer de la fibre à bas coût. Dans la mesure où elle développe un réseau de fibre noire et n’offre pas directement de services aux grand public, son offre se rapproche plus des Réseaux d’Initiative Publique  (RIP) mis en place par les collectivités locales et territoriales. Les entités qui gèrent ces réseaux s’appellent opérateurs d’opérateurs car ils proposent aussi des services aux opérateurs grand public (ou à des entreprises publiques ou privées) qui louent ces réseaux de fibre noire accompagnés de certains services spécifiques liés à l’infrastructure. « Nous fournissons en effet les baies et l’énergie électrique. Cela signifie quelques racks par client, mais ça n’est pas de l’hébergement au sens informatique du terme, explique Bertand Lenoir directeur général de Telcité. » Il y a plus d’une centaine de RIP sur le territoire Français aujourd’hui. « Nous sommes en discussion avec toutes les DSP de la région parisienne ajoute-t-il, y compris  avec Sequalum qui est le délégataire de THD Seine. »

Interconnexion avec les RIP de la région parisienne

Pour Bertrand Lenoir, Directeur Général de Telcité, l’avantage de cette nouvelle connexion directe est de permettre aux deux sociétés d’élargir leurs offres respectives en étant capable de proposer une connexion de bout en bout à leurs clients basés à la fois à Paris et en périphérie. « Nous avons réalisé, à coûts partagé avec Covage, une interconnexion fibre directe entre nos deux réseaux qui étaient très proches l’un de l’autre à la gare du RER de Bures sur Yvette. Ce n’est pas vraiment un hasard si ces deux réseaux étaient proches, ajoute-t-il… Nous avons donc posé une bretelle sous la forme d’un câble à 288 fibres pour relier les deux réseaux physiquement et ainsi, nos clients installés à Paris peuvent être en connexion directe par fibre avec des datacenter situés dans la périphérie de Paris.»

Covage couvre le 91 qui n’a pas de réseau départemental

L’offre de Covage est mixte dans la mesure où il offre de la fibre noire, mais aussi offre des services allumés, comme les opérateurs. Sur le 91, Covage couvre en particulier les zones de Saclay et d’Evry, assez fortement industrialisées, il n’y a aujourd’hui pas de réseau départemental sur l’Essonne Covage Networks irrigue une zone où se trouvent plusieurs  Datacenters, le centre de recherche d’Alcatel à Nozay et le poste RTE de Villejust.  Bertrand Lenoir poursuit : «  La solution de bout en bout peut prendre plusieurs formes pour le client : soit nous prenons en charge la totalité de la connexion (ou bien Covage le fait) et le client ne voit qu’un seul fournisseur, soit il a double facturation pour les parties du réseau correspondant à Telcité et à Covage. Dans le cas de la facturation unique, il y a accord spécifique entre Covage et Telcité pour ce client. Chaque client est traité individuellement. » Ce type d’arrangement fonctionne particulièrement bien pour des distances allant de quelques kilomètres  jusqu’à une centaine de kilomètres.

Pour les Plans de Reprise d’Activité

En effet, le client peut allumer lui-même sa propre fibre sans avoir besoin de dispositifs de regénération du signal pour atteindre sa destination. Un client parisien peut donc se connecter directement avec un Datacenter dans la région parisienne grâce une liaison fibre privée qui ne passera pas par Internet, offrant ainsi des conditions de sécurité accrues. Ce même client peut aussi mettre en place un Point of Presence (pop) qui lui permette de gérer cet accès fibre spécifique de façon séparé de ses accès Internet. Cette situation est donc tout à fait avantageuse pour des sociétés, petites ou grandes, qui doivent mettre en place un Plan de Reprise d’Activité (PRA), c’est-à-dire un dispositif qui permet une remise en route rapide des activités à partir des données sauvegardées, en cas de catastrophe naturelle, d’accident, de crise majeure ou de piratage.

Liaisons intersites

La stratégie de Telcité est donc d’offrir des accès très haute débits sur des liaisons intersites ou encore des services d’infrastructure de télécommunications aux opérateurs. « Nous ne sommes pas en concurrence avec les opérateurs car nous n’offrons pas d’accès Internet au grand public poursuit Bertrand Lenoir. Même si les opérateurs peuvent aussi offrir des services aux entreprises, ils proposent souvent des services à valeur ajoutée dans leur offre. En général, ils louent des morceaux de notre fibre noire pour y ajouter des services de voix, de données, de multimédia, d’accès à Internet, etc..».  La capacité en termes de bande passante de Telcité est aujourd’hui quasi illimité et dépend des technologies d’allumages, en perpétuelle évolution. Une simple fibre noire (de type G652) peut aujourd’hui offrir une bande passante au delà de 100 Gbps selon les équipements auxquels elle est associée et selon la distance sur laquelle le signal doit être acheminé.

Connecté à une quinzaine de datacenter en Ile de France

Aujourd’hui, Telcité, grâce a ses partenariats, est connecté à une petite quinzaine de datacenters sur Paris et en région parisienne et il a environ une centaine de clients, banques, ministères et grandes entreprises. Telcité ne propose pas de tarifs catalogue, mais le coût le plus important est celui de l’investissement à réaliser pour se connecter au réseau de fibre (entre 10 et 20000 €) selon l’éloignement du Pop. Ensuite, le coût mensuel d’une liaison fibre noire sur une dizaine de kilomètre est inferieur à 850€ par mois, le client ayant la charge de ses équipements de transmission et de leur maintenance.

Concurrence par les infrastructures…?

« Nous pensons que le marché de l’interconnexion inter-site est en pleine évolution conclue Bertrand Lenoir, et aujourd’hui, les prix et les conditions deviennent abordables pour des entreprises plus petites grâce à la mutualisation des infrastructures. La concurrence par les infrastructures n’a plus aucun sens. La mutualisation est devenue indispensable, surtout lorsqu’on parle de distribution. ».