Posted tagged ‘Intel’

Smart Grid et sécurité : La Californie s’inquiète et agit

9 août 2011

Au début de ce mois d’Aout, au Cesar’s Palace à Las Vegas,  se tenait la Back Hat Conférence, le plus grand rassemblement d’experts et de hackers sur le thème de la sécurité des réseaux, des systèmes et des données informatiques. Mike Alperovitch vice Président de McAfee, maintenant filiale de Intel, présentait un rapport de 15 pages indiquant que 72 organisations internationales, des gouvernements, des entreprises et même les Nations Unies et le Comite Olympique International ont depuis plus de 5 ans, subit des intrusions de leurs systèmes informatiques, audacieuses et parfaitement organisées, apparemment d’une même et unique origine, qui ont permis de détourner d’énormes masses de données dont on ne sait pas quelle utilisation en sera faite. Certaines attaques ont été très brèves, quelques semaines, d’autres ont duré plusieurs mois, voire plusieurs années. « Que vont devenir toutes ces données s’interroge le rapporteur. Si même une petite partie d’entre elle est utilisée pour élaborer des produits concurrents ou bien comme informations stratégiques dans des discussions importantes, elles représentent une énorme menace économique… »  Si aucun nom n’a été officiellement cité jusque là, beaucoup d’indices portent les soupçons sur la Chine, pour qui ce genre de pratique d’intelligence économique semble aller de soi.

Une prise en compte au niveau fédéral américain

Peu de temps avant que cette découverte ne soit portée au grand jour, le Smart Grid Virtual Summit organisé à l’initiative de Cisco (qui utilisait Webex pour diffuser les conférences) pendant 2 jours sur le Web  à la fin du mois de juin, réunissait quelques dizaines de spécialistes du sujet pour aborder les nombreux aspects techniques, économiques et sociaux du développement du smart grid, principalement aux Etats Unis. Une demi-journée était entièrement consacrée aux problèmes de securité du smart grid et l’un des intervenants, Larry Karinsky, directeur du Cluster Project Safety mentionnait au cours d’un panel que depuis plusieurs mois, des personnalités dont Vinton Cerf, commissaire de la  Broadband Commission for Digital Development, Bob Lockhart analyste chez Pike Research ou encore Andy Bochman, chargé des problème de sécurité chez IBM et fondateur du blog Smart Grid Security ont dejà lancé des alertes sur la nécessaire prise en compte de la sécurité. Du côte de l‘administration américaine, le président Obama a très clairement indiqué en 2009 que le Smart Grid est vu comme une nouvelle plateforme d’innovation pour les entreprises américaines, mais son développement est très fragmenté car chaque société développe à son niveau des appareils et des technologies qui ne se parlent pas entre elles, comme ce fut le cas dans le monde de l’informatique personnelle. Mais plutôt que de reprendre l’approche de marché qui a prédominé lors de l’arrivée de l’informatique personnelle au grand profit de Microsoft, Obama développe une démarche plus proche de la démarche Européenne qui cherche à créer les normes d’interopérabilité avant même que les produits n’existent. Il a ainsi mis en place une plateforme ouverte de standards de façon à ce que les applications puissent fonctionner partout, plutôt que de développer un système d’exploitation de base.

Un retour sur investissement entre 2,8 et 6

Conscient des risques encourus, mais incapable pour l’instant de les identifier avec précision, Lee Kreva, directeur du projet Smart Grid de San Diego Gas & Electicity précisait: « Le smart grid s’appuie sur les technologies de l’information et nous courons le risque que ça aille très très vite… Nous ne pouvons pas prévoir où ça va aller… »  L’EPRI (Electric Power Research Institute) vient de publier une analyse coût/avantage du développement du smart grid aux Etats Unis. Le coût d’investissement et de développement des technologies nécessaires pour implémenter le smart grid aux Etats Unis serait de 338 à 476 milliards de dollars, pour un retour sur investissement compris entre 1,3 et 2 trillons de dollars. La même estimation réalisée en 2004 prévoyait un coût d’investissement et de développement à 168 milliards de dollars entre 2010 et 2030. Le retour sur investissement n’était pas mentionné à cette époque… mais le rapport citait simplement le coût des pannes et des disfonctionnements du système électrique américain (entre 104 et 164 milliards de dollars par an) ajouté aux 15-25 milliards de dollars supplémentaires dus à la mauvaise qualité de la puissance électrique.

La Californie veut protéger les consommateurs

Mais les consommateurs ne sont guère sensibilisés au smart grid. PG&E, la plus importante compagnie Californienne a déjà installé plus de 7,8 millions de compteurs intelligents et s’est fixé le chiffre de 10 millions d’ici 2012. Kevin Dasso, senior director du smart grid chez PG&E constate : « c’est un concept qu’ils ne comprennent simplement pas, nous sommes donc confrontés à un problème d’éducation à la base. La plupart des consommateurs ne pensent pas à l’électricité qu’ils consomment, sauf peut-être lorsqu’il y a des coupures de courant ou lorsqu’ils reçoivent leur facture d’électricité. » Après avoir requis l’année dernière leur vision du smart grid d’ici 2020 aux trois principales compagnies d’électricité Californiennes, la California Public Utilities Commission a reçu le 1er juillet dernier leurs propositions d’objectifs  et un planning de leurs stratégies pour atteindre les buts fixés. Le « compteur intelligent » peut connaitre la consommation en temps réel, certains compteurs peuvent même parler à des puces dans des « appareils électroménagers intelligents » via les réseaux de télécommunications fixes ou cellulaires. Ces appareils électroménagers peuvent même être contrôlés à distance par un simple téléphone cellulaire via le "smart meter" qu’ulitlise la compagnie d’electricité pour connaitre et contrôler la consommation dans la maison. Non seulement la sécurité sur les réseaux est loin d’être parfaite et certaines données peuvent intéresser les escrocs en tous genres, mais toutes ces données recueillies sur la manière dont consomment les ménages ont une valeur marketing importante. La grande question est de savoir qui possède ces données et qui aura  le droit de les utiliser ?  « Il y a pas mal de soucis au niveau fédéral explique Ernie Hayden, Responsable de la sécurité pour l’énergie chez Verizon, parce qu’on se rend compte que personne ne tient réellement la sécurité électrique sur le smart grid. » Il n’existe en effet aucune instance chargée de ces problèmes au niveau fédéral ou au niveau régional. Les seules qui ont une responsabilité au niveau local dit-il sont les Public Utility Commission

Une première législation sur la sécurité

Le 28 juillet dernier, la CPUC adoptait donc une décision dont le but est de standardiser les dispositions de privauté des données mesurées, et la sécurité des prix et des données d’usages pour les 3 grandes compagnies californiennes, PG&E, Southern California Edison et San Diego Gas & Electricity, ainsi que pour toutes les sociétés qui peuvent avoir accès aux données des consommations électriques des clients de ces sociétés. Cette décision de 171 pages qui avait été déposée en décembre 2009 impose désormais aux compagnes d’électricité de fournir aux consommateurs une mise à jour quotidienne des principales composantes du marché, minute par minute, comportant usage, prix et coûts. Les compagnies ont 90 jours pour faire des propositions afin de se conformer à ces nouvelles règles. Michael Peevey, président de la CPUC indiquait « les règles et les politiques que nous avons adoptées sont les premières dans ce pays et devraient servir de modèle au niveau national. Elles sont conformes aux principes adoptés par le Département Homeland Security et aux décisions 1478 du Sénat. » Les consommateurs auront donc un accès direct aux informations de prix et d’usages. « C’est une trame solide pour établir un équilibre entre la protection de la vie privée des consommateurs et la stimulation d’un nouveau marché pour des tierces parties. » indiquait Mark Ferron, commissaire à la CPUC.

Un modèle de développement

Le modèle californien est clair, d’un côté, on assure une certaine protection de la vie privée des consommateurs et la sécurité des données, mais de l’autre, on donne les moyens au marché de se développer plus rapidement en suscitant un foisonnement de sociétés tierces qui pourront apporter leur technologies et leur savoir faire sur le marché pour y développer nouveaux produits et nouveaux services. L’attitude du consommateur semble à priori beaucoup plus considérée en Californie qu’en France puisqu’il pourra plus librement choisir les technologies, les produits et des services qui se présenteront pour peu qu’ils respectent les termes de la décision sur la securité des données et la vie privé. Rappelons que ces technologies doivent aussi s’incorporer dans la plateforme d’interopérabilité définie par les instances nationales. Toute enfreinte, dont les conditions sont définies dans la décision de la CPUC, sera portée devant la commission qui devient maintenant l’agence responsable de la sécurité sur le smart grid, au niveau de l’Etat de Californie. Ce problème n’est pas encore vraiment adressé dans les 25 autres états qui ont commencé à mettre en oeuvre des politiques actives de déploiement de compteurs intelligents pour les foyers, les entreprises et des zones urbaines entières. Plusieurs problèmes ont déjà surgis dans cette nouvelle « bulle » silencieuse.

Les problèmes sont nombreux

En 2009 à Seattle, la société IOActive, société de consulting dans la securité, a montré qu’il était possible d’injecter des virus dans un smart meter générique de type AMI (Advanced Metering Infrastructure), virus donnant à un hacker le contrôle d’une partie ou de la totalité du smart grid, lui permettant de couper instantanément l’électricité dans des zones urbaines entières, ou bien plus spécifquement, de couper tous les téléviseurs connectés à un moment donné ou encore de s’attaquer à des secteurs critiques, industriels ou de l’administration en coupant l’électricité. Certains compteurs intelligents mis sur le marché disposent, selon les brochures marketing, d’un système d’encryption sophistiqué. Il s’agit en fait d’un simple mot de passe d’authentification. Les atteintes à la vie privée sont aussi une preoccupation montante au sein des Etats qui jusqu’à présent se sont plutôt occupé de définir des plans de développement. « Aujourd’hui explique Ernie Hayden de Verizon, tous les constructeurs, les fabricants de matériels et les grands distributeurs d’électricité disent qu’ils sont très concernés par la sécurité et la vie privée des consommateurs, mais personne n’est là pour le constater , le vérifier et le faire respecter! »

WiMax, chronique d’une mort annoncée un peu vite

29 juillet 2010

HTC Evo 4G, premier telephone WiMax chez Sprint

Au début du mois de juillet, lors d’un meeting interne chez Intel Taiwan, Intel annonçait la fermeture de son « 4G WiMax Program Office». Repris par une publication locale, l’annonce était immédiatement transformée en annonce de la mort de WiMax suite à ce qui était appelé un retournement de position et un frein au soutien de Intel à l’industrie du WiMax. La nouvelle était ensuite reprise sans vérification dans la plupart des journaux dans le monde, annonçant la fin du WiMax, qui de toute façon était déjà en sursis…La messe était dite…

Une réponse de la part d’Intel

Connaissant l’implication d’Intel dans le WiMax, j’ai cherché à comprendre ce que signifiait cette annonce en allant rechercher un peu plus d’information à la source. Après tout, c’est bien le rôle du journaliste d’essayer de comprendre… J’ai donc posé la question à un de mes vieux amis qui travaille chez Intel. Je ne dirai pas son nom parce notre conversation n’était pas officialisée par les services de presse de la compagnie. « En fait me dit-il, le résultat de cette annonce est en fait pratiquement le contraire de ce qui a été écrit par la presse…Effectivement, nous avons stoppé le 4G WiMax Program Office au sein d’Intel, mais nous n’avons pas le moindre du monde arrêté le soutien à l’industrie du WiMax. »  Il m’indiquait que le jour même, Intel dans son blog officiel avait publiquement répondu à l’article paru en rectifiant plusieurs points, chose qui arrive très rarement chez le N° 1 des semi-conducteurs… (On ne se risque pas à répondre à la presse, sauf pour les cas d’urgence)…

WiMax couvre 800 millions de personnes dans le monde

L’article (en Anglais) publié sur le blog est assez clair et mentionne que le WiMax est aujourd’hui accessible par 800 millions d’utilisateurs dans 147 pays qui se trouvent dans une zone de couverture WiMax commerciale. Quelques douzaines de villes aux Etats-Unis (dont les plus importantes) font partie de la liste et même Taïwan dispose d’un réseau commercial WiMax nouvellement installé, accessible par plus de 3 millions de personnes. Est-aussi mentionné l’un des principaux fournisseurs de WiMax, la société chinoise Huawei qui déploie du WiMax dans 65 pays, ou encore Motorola qui a multiplié par 2 ses ventes de terminaux WiMax en 6 mois. Enfin, il précisait que plus de 200 PC portables d’une douzaine de constructeurs différents sont proposés sur le marché équipés d’une puce WiMax.

La start’up WiMax est mature

Mais alors, pourquoi arrêter le WiMax Program Office? « C’est ce qui a prêté à confusion me dit-il. » En effet, un peu plus loin dans le texte posté sur le blog, on peut lire : « Intel met en place des « Program Offices » pour faciliter la création, le support et mettre une technologie, un standard (et/ou de nouveaux clients) aussi rapidement que possible sur le marché. Nous avons une poignée de ce type de programme au sein de la compagnie. Par définition, ces « bureaux » sont temporaires.. Ils fonctionnent comme des start’up au sein de l’entreprise, ajoutait mon ami.

Il se passe que pour le WiMax, ce « bureau » a été formé il y a 4 ans et dans ce laps de temps, le standard est devenu complet : le test et le déploiement sur une grande échelle ont été accomplis (plus de 500 dans le monde) et quoi…, même un téléphone vraiment populaire parmi les autres appareil est arrivé sur le marché.Le groupe de standardisation a même identifié les spécifications enrichies de la nouvelle génération 802.16e.  Donc pour nous la mission de sortir le WiMax et de le mettre sur le marché est accomplie. Les gens qui travaillaient sur ce programme ont juste été recasés dans nous groupes de produit chez Intel.” (A noter que l’ARCEP en France ignore toujours superbement le 802.16e qui permet de faire du WiMax Mobile ou nomade et non plus fixe.).

Un changement d’organisation tous les mois

La start’up WiMax a donc grandit et les produits WiMax sont désormais vendus aux sein des différentes unités d’Intel, parce qu’il s’agit de volumes maintenant non négligeables qui s’insèrent parmi les autres… Difficile transition dans la mesure où les vendeurs d’Intel sont rémunérés à la commission comme tout le monde et risquent de moins pousser ce produit qui a été pas mal décrié et qui ne bénéficie pas d’une grosse côte dans le grand public. Le blog reconnait que ce changement d’organisation, comme il y en a tous les mois chez Intel (cela fait 20 ans que je n’essaie plus de comprendre la structure organisationnelle d’Intel), a été plutôt mal communiqué.

Le problème est que depuis ses début, WiMax a souffert d’une assez  mauvaise communication, aussi bien de la part d’Intel que de la part de ses principaux « souteneurs »…souvent trop ambitieux, obligés de déchanter devant la réalité de la technique. Il est surtout mal accepté par les opérateurs de télécommunications qui préfèrent un standard issus de leurs rangs et non pas un standard ouvert venu d’un monde qui n’est pas le leur. Espérons que son entrée dans l’âge adulte lui apportera un deuxième souffle en matière de communication, alors qu’il est  la première technologie 4G disponible et livrée sur le marché de la téléphonie sans fil.

Intel met la fibre dans la maison pour interconnecter tous les appareils

5 avril 2010

Lors de son keynote du CES 2010 à Las Vegas, Paul Otellini, CEO de Intel, mentionnait rapidement une nouvelle technologie d’interconnexion entre tous les appareils électroniques grand public (ordinateurs, smartphones, périphériques) appelée Light Peak, développée dans les laboratoires d’Intel depuis 2007, dont les premières démonstrations ont été faites publiquement lors de l’Intel Developers Forum fin septembre 2009 à San Francisco. Aujourd’hui Intel entre donc sur le marché des AOC (Active Optical Cables) , c’est-à-dire les câbles d’interconnexion en fibre optique active pour les appareils électroniques, qui à terme sont amenés à remplacer les câbles d’interconnexion basés sur du cuivre. Cette technologie devrait être disponible dans les mois qui viennent sur les prochains PC et serait déjà adoptée par plusieurs constructeurs d’appareil électroniques grand public dont Sony et probablement Apple.

Développée à la demande d’Apple

Lors de ses premières présentations en septembre dernier, la petite histoire véhiculée par la presse américaine laissait entendre que c’est à la demande expresse d’Apple à la recherche d’une connectique unique, plus efficace et de plus petite taille pour ses appareils, qu’Intel aurait décidé de développer cette nouvelle technologie basée sur la fibre. On peut cependant rappeler qu’Intel a été un élément moteur dans le développement de l’USB au milieu des années 90 et qu’il travaille depuis des années sur les technologies de fibre optique.  Le Français Jean Marc Verdiell qui fut directeur de la stratégie optique d’Intel jusqu’en 2006  reste le seul Français à ce jour à avoir été promu Intel Fellow. Il a recemment déposé un brevet sur les interconnexions par fibre optique entre certains composants d’un ordinateur.

Pourtant, alors que le nouvel iPad d’Apple arrive sur le marché,  tout le monde déplore l’absence d’un connecteur USB sur l’appareil. On peut raisonnablement se poser la question de savoir si Apple n’attend pas la mise sur le marché de ces connecteurs Light Peak pour en équiper ce nouveau terminal complètement orienté Internet et Multimédia… Voir ci-dessous le document qui a circulé à l’automne dernier sur la manière dont Apple envisage l’utilisation de cette nouvelle connectique.  (J’ai rajouté l’iPad qui ne figurait pas sur le document original, mais qui s’y insère parfaitement bien à postériori…)

Ecoutons la présentation (en Anglais) de Paul Otellini sur la nécessité de développer une telle connectique capable de transporter des données sous des protocoles multiples et capables d’interconnecter directement les appareils de la maison entre eux et aux câbles optiques qui arriveront bientôt dans les appartements pour apporter l’Internet à très haut débit (FTTH). Il y a fort à penser que cette technologie bouleverse quelques notions dans ce qu’on appelle généralement « la maison connectée »…

Les câbles électriques actuels à base de cuivre, communément utilisés pour toute la connectique du PC, atteignent aujourd’hui leurs limites en terme de vitesse de transmission et de longueur, à cause des interférences électro-magnétiques et d’autres effets physiques.  Ainsi, les spécifications d’un câble de cuivre capable de transmettre des données à la vitesse de 5 Giga bit par seconde imposent un diamètre de 6 à 8 mm et une longueur maximum de 3 mètres, soit une taille réduite de 2 mètres par rapport à la longueur maximum des câbles USB 2.0 existants. De plus, des câbles de cette taille demandent aussi des connecteurs plus larges qui ne s’intègrent pas facilement dans des appareils qui deviennent de plus en plus petit (les smartphones notamment).

Un concurrent de USB 3.0

La technologie Light Peak vient aujourd’hui en concurrence directe avec USB 3.0 qui offre théoriquement une capacité de transfert de 600 Megabits par seconde, (200 à 300 Mbps en réalité) sur du cable de cuivre mais qui, bien que capable d’offrir des vitesses jusqu’à 25 Giga bits par seconde, n’a pas précisé sa stratégie sur la fibre. Light Peak offrirait d’entrée une capacité d’échange de 10 Giga bits par seconde, pouvant aller rapidement jusqu’à 100 gigabits par seconde, avec  des câbles d’un diamètre de 2 à 3 mm, des connecteurs de bien plus petite taille capable de se loger facilement dans un smartphone, sans pour autant que la longueur de câble soit limité. On peut ainsi envisager de remplacer des câbles Ethernet d’accès à Internet par  des câbles Light Peak, qui pourront, selon Intel, assurer le transport des données à très grande vitesse sous différents protocoles.

Ecoutons la présentation (en anglais) de Light Peak faite par le responsable du laboratoire optique de Intel au moment du CES 2010.

Enfin, selon la société d’études IGI (Information Gatekeepers Inc), le marché de l’AOC dispose aujourd’hui d’une véritable opportunité de développement.  Mais sa croissance s’est surtout appuyée jusqu’à maintenant sur une technologie appelée InfiniBand (IB), principalement employée dans les entreprises pour les solutions de HPC (High Performance Computing), alors que les connectiques basées sur le cuivre comme HDMI, USB ou Display Port (DP) voyaient leurs performances augmenter au détriment de la longueur et de la minceur des câbles et de la réduction de la taille des connecteurs.

L’opportunité que présente Light Peak semble donc très large sur tout le marché de l’électronique grand public compte tenu de la convergence fixe et mobile qui se développe et de l’arrivée du très haut débit dans les foyers grâce au FTTH. Le USB-IF (Implementers Forum) qui a pour mission de developper et de faire adopter USB précisait de façon laconique que USB 3.0 existe et fonctionne déjà alors que Light Peak est encore sous forme de spécifications et de prototype. A noter aussi que le Président de l’USB-IF est un employé d’Intel…

WiMax, une année difficile…

15 juillet 2009
Maxime Lombardini, DG de Free-Iliad

Maxime Lombardini, DG de Free-Iliad

Lors de la Conférence “Les Echos Télécom” qui s’est déroulée à l’Hotel Lutetia à Paris au début de cet été, beaucoup de sujets autour du développement numérique des territoires (fixe ou mobile) ont été abordés. La fibre, la TMP, l’iPhone ou la 4ème licence de téléphonie mobile ont donné lieu à des débats passionnés, mais le thème des données mobiles, c’est-à-dire de l’accès aux données Internet par voie hertzienne, a été quelque peu éludé. Il semble que nos opérateurs ignorent soigneusement le WiFi et le WiMax. En gros ce qu’on entend en général est : « le WiFi n’est pas sérieux…  quant aux WiMax, il n’a aucun avenir dans notre pays… attendons donc le LTE… » Un vaste programme qui mérite quelques commentaires, car de la manière dont auront été abordées les infrastructures mobiles en France dépendra la manière dont nous utiliseront les données mobiles demain et la qualité des services accessibles.

« On reste intéressé par le WiMax qui n’est pas très éloigné du LTE »

J’ai demandé à Maxime Lombardini, le DG de Free qui possède une licence WiMax Nationale acquise pour quelques €36 millions à Altitude Télécom en 2006, ce qu’il comptait faire de cette licence quasiment inutilisée alors que les fréquences radio sont rares et chères…Celle-ci, la dernière de ce qui était l’ancienne BLR, est assortie de contraintes plutôt souples et légères et en réalité, l’opérateur ne l’utilise guère, même si il rempli les conditions qui lui permettent de remplir son contrat. « Le WiMax dans la bande des 3.5 GHz, répondait-il, personne ne l’utilise. La raison à cela est qu’il n’y a pas d’équipements de réception. On a passé beaucoup de temps avec les fournisseurs d’équipements au moment de nos expérimentations du 15ème arrondissement. Il est donc difficile de déployer un réseau lorsqu’on a pas les équipements pour le faire, surtout dans cette bande de fréquence élevée. On reste cependant intéressé par le WiMax qui n’est pas très éloigné du LTE en termes d’architecture du processus. On continue de croire en cette technologie, mais aujourd’hui c’est difficile de faire une offre, d’autant qu’il n’y a pas d’accord d’itinérance possible avec d’autres opérateurs. Ca reste un espoir mais c’est pas quelque chose d’opérationnel à court terme ».

En clair, tant que l’on ne verra pas des puces WiMax dans les téléphones et les PC, comme ça a été le cas pour le WiFi, WiMax ne décollera pas. Rappelons aussi qu’aux Etats-Unis, WiMax opère sur la bande de fréquence 2.5GHZ, beaucoup plus efficace pour la couverture. A noter cependant qu’au niveau Européen, le comité de la gestion du spectre des fréquences (EEC) s’est prononcé l’année dernière sur une homogénéisation du WiMax en Europe autour de la bande des 2.6 GHz.

400000 nouveaux abonnés WiMax face à 50 millions pour le cellulaire

Pourtant, dans d’autres parties du monde, WiMax continue d’engranger des abonnés, mais à un rythme de croissance plutôt faible pour une technologie émergeante. Selon la société d’études Maravedis, il y aura eu 400000 nouveaux abonnés dans le monde au 1er trimestre 2009 chez les 200 opérateurs WiMax  alors que les 550 opérateurs de téléphonie cellulaire ont capté 50 millions de nouveaux abonnés dans la même période…

Du aux effets de la crise, le taux de progression des abonnés du WiMax d’un trimestre à l’autre est tombé à 13% entre le 1er trimestre 2009 et le dernier trimestre 2008, contre 30% entre le 3ème et le 4ème trimestre de 2008. Il reste encore de 75% d’une année sur l’autre. Le nombre total d’utilisateurs du WiMax est aujourd’hui de 3.5 millions dans le monde dont les Etats-Unis représentent la plus grosse part avec 1.17 millions d’abonnés. Dans ce pays, la société Clearwire (fortement financée par Intel, Google, Comcast, Time Warner Cable, Sprint-Nextel) continue ses développements, avec l’annonce du déploiement à Las Vegas le 21 juillet prochain. Elle a déjà commencé de déployer à  Portland, Altanta et Baltimore, prévoit Chicago et 6 autres grandes villes de façon à couvrir 120 millions de personnes aux Etats-Unis d’ici la fin de 2010. Clearwire disposait de 500000 abonnés à la fin mars 2009, soit une augmentation de 5% par rapport au trimestre précédent.

La société d’études indique que l’ARPU moyen (c’est-à-dire le revenu moyen mensuel réalisé par l’opérateur pour chaque abonné) était de $42,43 dollars pour les abonnés résidentiels et de $116.82 pour les abonnés en entreprise au 1er trimestre 2009. Pour les abonnés en entreprise il a baissé sensiblement par rapport au 4ème trimestre 2008 où il était de $122.64. Les abonnés résidentiels représentent  près de 70% de la population totale des abonnés dans le monde et 86% aux Etats-Unis.

WiMax face au LTE….un challenge pas seulement technique

Pour confirmer la réponse de Maxime Lombardini, il y a aujourd’hui 60 produits ou appareils certifiés conformes au standard IEEE802.16 e -2005 par le WiMax Forum, dont 26 sont des stations de base et 34 sont des terminaux de réception. De même, au 1er trimestre 2009, seulement 9 produits opérants dans  la bande de fréquence 3.5GHZ ont obtenus une certification du WiMax Forum et sont aujourd’hui disponibles. Ce sont 5 stations de bases portées par Alvarion, Motorola, ZTE, NEC et Samsung, ainsi que 4 terminaux, produits par GCT, Samsung, Intel et Sewon Intech.

A noter que Cisco passait en mai dernier un accord avec Clearwire pour développer des dispositifs de réseau WiMax et un terminal WiMax Mobile dans le cadre du déploiement américain de l’opérateur. Cependant, Intel continue de mettre d’importants moyens derrière le développement du WiMax bien que d’ores et déjà, une trentaine d’opérateurs mobiles dans le monde ont indiqué leur intention d’utiliser la technologie LTE (Long Term Evolution), pour la prochaine génération de leurs réseaux mobiles. Maravedis précise que ces 30 opérateurs couvrent une population de 1.1 milliards d’abonnés en mars 2009, dont 447 millions uniquement pour l’opérateur China Mobile.

L’adoption de LTE pour ces opérateurs provoquera une lourde et coûteuse migration de leurs réseaux mobiles existants (2G ou 3G) vers cette technologie IP mobile dont les caractéristiques ne sont pas encore complètement standardisées et dont les premiers développements ne devraient pas intervenir avant 2010, avec les premiers déploiements commerciaux en 2012. Dans la réunion Intel@research qui s’est tenue à Mountain View en Californie à la fin du mois de juin dernier, plusieurs recherches autour de WiMax étaient présentées, visant à améliorer les performances du système en lui apportant de nouvelles caractéristiques uniques, plus particulièrement dans la gestion du réseau.

Enfin, le WiMax forum présentait en début d’année un  document comparant le WiMax et le LTE (mobile_wimax_and_lte_feb2009final),  ainsi que les agendas  (estimés) de leurs évolutions respectives, toujours sujets à dérapages….

Roadmap WiMax et LTE d'ici 2012  (doc Wimax Forum)

Roadmap WiMax et LTE d'ici 2012 (doc Wimax Forum)

Intel et Nokia s’allient pour les téléphones mobiles du futur

23 juin 2009

old_phoneCe mardi matin en Californie, Intel et Nokia ont annoncé un "accord stratégique de collaboration technologique à long terme"  pour définir et mettre en oeuvre les terminaux mobiles du futur. Anand Chandrasekher, VP et general manager Intel Ultra Mobility Group et Kai Oistamö, Executive VP Terminaux chez Nokia ont conjointement annoncé l’accord sans pour autant donner de précisions sur les dates et les modalités de sa mise en oeuvre. "Nous  sommes engagés pour travailler ensemble et mettre en oeuvre l’expertise de chacune des compagnies pour developper de toutes nouvelles catégories d’appareils, au dela de ce qui existe aujourd’hui (smartphone ou netbooks) et apporter aux utilisateurs un expérience riche, n’importe où, à tout instant" indiquait Chandrasekher.

Il précisait cependant trois points dans lesquels s’appliquera la collaboration technique des deux entreprises, à savoir:

-le développement d’une nouvelle architecture servant de plateforme pour les futurs appareils mobiles:

- le developpement de nouveaux chipsets combinant l’expertise des deux compagnies, les développements autour des technolgies d’antenne MiMo et une collaboration autour des plateformes logicielles mobiles Open Source développées par les 2 compagnies:

-Intel licencie la technologie 3G+ dite HSPA de Nokia.

En terme d’architecture, Intel utilise l’achitecture X86 dans tous ses appareils mobiles et les Netbooks développés autour du processeur Atom alors que Nokia et une bonne partie des constructeurs de smartphones (dont l’iPhone) ont recourt à l’architectures ARM, moins gourmande en énergie.  L’architecture XScale de Intel avait été été utilisée, sans grand succès, dans les premières générations de smartphones. Intel l’a ensuite revendue à Marvell.  Ni Chandrasekher ni Oistamö n’ont donné de précision mais il semble qu’une évolution de l’architecure X86 puisse être envisagée pour mettre en oeuvre des appareils qui doivent combiner le meilleur du mobile et le meilleur du PC.

Pour  la collaboration sur les OS Open Souce, c’est à dire les distributions Linux developpées par les deux compagnies (Moblin chez Intel pour ses futurs Netbooks et Maemo pour Nokia) les deux compagnies se disent en mesure de développer une plateforme commune ou de faire converger les 2 plateformes pour apporter une expérience riche d’accès à Internet aussi bien par le biais de réseaux WiFi, WiMax ou des réseaux 3G et au dela. Il feront aussi appel à d’autres technologies Open Source comme Mozilla, oFono, ConnMan, X.Org, BlueZ, D-Bus, Tracker, GStreamer et PulseAudio.

Cette annonce  montre l’importance qu’a pris la mobilité dans le portefeuille des activités d’Intel et une certaine préoccupation de Nokia de ne pas se couper du monde du PC et de renforcer sa présence sur le marché américain. En termes d’appareils, il est donc probable que l’ont voit dans un premier temps arriver sur le marché des Netbooks dotés d’une puce HSDPA à coté d’une puce WiFi et/ou WiMax, permettant indifféremment l’accès à Internet par le réseau 3G ou les réseaux WiFi ou WiMax.


Suivre

Recevez les nouvelles publications par mail.

Joignez-vous à 256 followers