Overblog Suivre ce blog
Administration Créer mon blog
1 juin 2010 2 01 /06 /juin /2010 09:44

arcepAprès le temps de la discussion vient le temps de l'action; ces prochaines semaines le démontreront certainement sur le dossier ô combien attendu du très haut débit, après des mois, voire des années de préparation et de délibération. A quelques signes clairs on observe que les acteurs principaux impliqués dans ce projet avancent leur pions et accentuent la pression sur les instances réglementaires et le gouvernement; l'ARCEP concentre dernièrement la plupart des critiques, qu'on l'accuse du retard de la mise en place de la fibre optique en France ou d'une régulation asymétrique qui affaiblirait l'opérateur historique. 

 

Ces tirs nourris ne sont pas l'objet d'un hasard de calendrier; oui l'ARCEP a un rôle d'une importance capitale, historique, dans la constitution du cadre réglementaire qui permettra enfin aux zones moyennement ou peu denses du territoire national de bénéficier très haut débit, qu'il soit fixe ou mobile. Rappelons d'un mot que cela ne se fera qu'au prix de décisions difficiles, car l'investissement, à la fois massif et d'une rentabilité de long-terme, ne se fera qu'à l'aide de deniers publics, et peut-être au prix d'une redéfinition d'un certain nombre d'éléments constitutifs du marché:

 

Fibre- position dominante de l'opérateur historique à l'accès fixe: Stéphane Richard le sait bien, le sort de la rente de la location du réseau d'accès en cuivre de France Telecom (9€ par mois et par abonné) est en jeu. Certains préconisent la taxe de ces revenus de location pour inciter l'opérateur historique à investir dans la fibre, et récupérer des fonds publics récurrents. D'autres, comme l'Association des Villes et Collectivités pour les Communications Electroniques et l'Audiovisuel, verraient bien la séparation structurelle de France Telecom et l'utilisation de la rente du cuivre pour un grand programme de construction mutualisée du très haut débit fixe dans notre pays. L'Italie, elle, propose un mécanisme de "switch-off" du cuivre s'inspirant du passage à la TNT.

 

- concurrence par les infrastructures: la question est récurrente, mais elle est posée une fois de plus. Faut-il imposer la construction, dans les zones dites "non économiquement rentables", d'un réseau unique co-financé par un nouvel opérateur créé de toutes pièces et dont le capital serait constitué d'un mélange de fonds publics et privés ? Ou bien faut-il organiser une concurrence artificielle en subventionnant les projets d'opérateurs privés dans ces zones, avec des appels d'offres au cas par cas, et un maillage dont la cohérence sera difficile à administrer malgré la bonne volonté évidente des collectivités locales ? La réponse est loin d'être simple; les démêlés actuels du projet de couverture en fibre optique du département des Hauts-de-Seine, et la réquisition du rapporteur du Tribunal administratif de Versailles en faveur de l'annulation de la Délégation de Service Public, jettent un éclairage particulier sur les conséquences de la concurrence acharnée entre Colt, SFR, Iliad et France Telecom dans ce territoire. Bien sûr les enjeux seront moins importants dans la Creuse ou la Lozère, mais l'abondance d'argent public sera certainement source de conflits et de retard dans la réalisation des réseaux.

 

- nouvelles taxes: si le Grand Emprunt amorcera l'investissement de l'Etat dans le réseau très haut débit, à hauteur de deux milliards d'euros (dont 750 millions seront versés au fonds d'aménagement numérique des territoires créé par loi Pintat), le Président de la République a chargé le Sénateur Hervé Maurey de réfléchir à des moyens d'alimenter ce fonds de manière récurrente. Celui-ci rendra publiques en Juin les premières pistes de réflexion, notamment à l'occasion d'un colloque qui s'annonce passionnant. Inévitablement, ce sont de nouveaux prélèvements qui seront proposés pur péreniser le nécessaire mécanisme de péréquation géographique.

 

- l'apport du dividende numérique: les licences d'utilisation des fréquences du dividende numérique pour le très haut débit mobile feront probablement l'objet d'un traitement particulier, car elles peuvent rapporter beaucoup d'argent à l'Etat, au moins à deux titres. Comme les enchères publiques en Allemagne l'ont montré, les comptes publics peuvent ainsi bénéficier de plusieurs milliards d'euros supplémentaires, ce qui pourrait bien apporter une marge de négociation LTE-copie-1supplémentaire à des discussions difficiles sur les retraites. Mais l'utilisation intelligente des technologies mobile de quatrième génération (LTE) peut aussi permettre à certains territoires difficiles d'accès, ou particulièrement peu denses, de bénéficier du très haut débit (THD) plus rapidement que par le déploiement hypothétique de la fibre optique. Cela peut aussi générer des économies importantes pour parvenir à l'engagement du Président de raccorder 70% des usagers français au THD d'ici 2020. Pour cela, les dispositions de licences devront être particulièrement explicites en ce qui concerne le déploiement en zones peu denses, que les opérateurs couvrent d'ordinaire en dernier. De la même façon, il faudra s'interroger sur la répartition des fréquences entre opérateurs, pour optimiser les performances des réseaux mobiles 4G; en effet, une dispersion des fréquences entre les quatre opérateurs aurait pour effet de faire baisser le débit de chaque réseau, celui-ci étant proportionnel à la largeur de spectre utilisée. Là aussi, la question de la concurrence par les infrastructures se pose crûment. 

 

Les technologies de l'information, fer de lance de la reprise économique ? Oui, et la France s'est dotée d'outils comme le Grand emprunt qui peuvent contribuer à placer notre pays au tout premier rang des nations connectées, innovantes, efficaces. Mais pour cela il faut avoir le courage de prendre des décisions structurantes, dans un souci de réussite à long-terme, et sans forcément s'inspirer des modèles anciens. Ce n'est pas simple.

Repost 0
26 mai 2010 3 26 /05 /mai /2010 19:16

 

Google-tv-adsLa deuxième journée du Google I/O 2010 à San Francisco a été marquée par l'annonce d'un projet que certains voient déjà comme une révolution historique, quand d'autres doutent fortement de son futur succès. Google TV ne laisse personne indifférent: un écosystème puissant de partenaires aussi prestigieux que Sony, Intel ou Logitech a été formé avant même le lancement de l'offre; les opérateurs qui proposent des offres de télévision sur ADSL sont eux singulièrement absents, comme si Google les considérait toujours plus comme des tuyaux d'acheminement. Quant aux chaînes de télévision traditionnelles, dont certaines luttent déjà dans un contexte de dispersion des revenus publicitaires, elles voient évidemment d'un très mauvais oeil cette nouvelle concurrence. Pour le patron d'Intel, Paul Otellini, il s'agit de la plus importante révolution qu'ait connue la télévision depuis la couleur.

La vidéo suivante (en anglais) rappelle les grands principes qui sont à la genèse de Google TV. "Imaginez-vous allumer votre télévision et obtenir toutes les chaines et les émissions télévisées que vous regardez habituellement ET tous les sites Web que vous parcourez toute la journée – incluant vos sites de vidéo, musique et photo préférés", déclare la firme américaine sur son blog. Poursuivant sa stratégie multi-écrans, elle s'attaque à celui de la télévision après avoir affirmé sa domination sur celui des ordinateurs, et bientôt celui des smartphones. L'enjeu est bien évidemment le marché publicitaire associé à la TV, dont la valeur pourrait croître proportionnellement à la meilleure connaissance des centres d'intérêts de chaque téléspectateur; or Google pourra contrôler les mots-clefs de recherche de contenu audiovisuel, et adapter à la télévision son modèle économique de publicité sur internet.   


 

Pourtant ce mariage de la TV et de l'internet laisse sceptique ceux qui estiment que les 4 milliards de personnes qui regardent la télévision dans le monde, et qui y passent parfois près de cinq heures comme aux USA, ne veulent peut-être pas mélanger leurs écrans. Nombreux sont ceux qui regardent le "petit écran" tout en pianotant sur leur ordinateur; c'est ce que constatait Nielsen au premier trimestre 2010: la consommation de programmes de télévision augmente en même temps que celle d'internet. Cela n'empêche pas la délinéarisation des usages TV, avec les possibilités techniques de différé, ou d'enregistrement; la catch-up TV s'installe et semble indiquer que la convergence entre TV et internet répond bien à une attente du public. Mais la consommation de télévision reste fondamentalement récréationelle, et exige une simplicité d'usage et de recherche que ne permet pas encore internet. Faites l'essai: la moindre recherche de video sur YouTube renvoie des centaines de milliers de résultats, la plupart de piètre qualité visuelle. Par ailleurs, le nombre inquiétant de boîtes électroniques qui s'empilent près de la télévision (box ADSL, set-top-box, adaptateur TNT, lecteur-graveur DVD ou blu-ray, femto 3G/4G..) manque déjà singulièrement de simplicité et d'intégration. Ajouter une couche logicielle supplémentaire est une vraie gageure: qui dit que l'interopérabilité est garantie entre les composants de la chaîne ? L'interface utilisateur de Google sera-t-elle suffisamment intuitive pour s'imposer de facto aux autres menus proposés ? Autant de questions qui montrent que le défi est de taille.

 

Certains commentateurs évoquent aussi la question des contenus: ceux-ci ont encore une forte part locale, et la question des droits d'accès premium se posera tôt ou tard à Google si celui-ci veut s'assurer la suprématie du marché publicitaire. Mais rien n'empêche le géant de Moutain View de mettre sa puissance financière à contribution pour diffuser ces contenus sur internet. Il le fait d'ailleurs déjà, comme le souligne la vidéo ci-dessous (réalisée par Gilles Tanguy de Capital, dont l'article "Voici comment Google peut tuer TF1 grâce à YouTube", publié en Mars dernier, prend une résonnance particulière aujourd'hui). Larry Page, con-fondateur de Google, ne déclarait-il pas lors de sa venue en France il y a une semaine: "Notre ambition est d'organiser toute l'information du monde, pas juste une partie"?

      

 

Reste l'innovation, et la remarquable compétence de Google à nous rendre certains services indispensables peu de temps après leur conception. Tout dépendra bien sûr de la qualité de l'expérience utilisateur. L'utilisation de son smartphone androïd comme télécommande (avec un monde de possibilités nouvelles en convergence fixe-mobile et en rétention d'utilisateur), le potentiel de la traduction automatique et de l'ajout automatique de sous-titres, et surtout la créativité des développeurs, qui vont profiter de la plate-forme ouverte et imaginer une myriade de nouvelles applications, peuvent suffire à convaincre les téléspectateurs. D'autant plus si les nouvelles couches matérielles et logicielles s'intègrent de façon transparente, simple et gratuite aux téléviseurs vendus dans les grandes surfaces.  

 

Pour les opérateurs de télécommunications qui proposent des services de télévision sur IP, l'urgence est grande de proposer une alternative crédible aux projets de Google, sous peine de se retrouver relégués rapidement au rôle de transporteurs. Des industriels leur proposent déjà des solutions complètes susceptibles de capitaliser plus fortement sur l'intelligence des réseaux fixes et mobiles, et d'améliorer l'expérience utilisateur.  La bataille s'annonce rude, et passionnante.

 


Repost 0
25 mai 2010 2 25 /05 /mai /2010 09:58

cisco-logo.gifIl n'est finalement pas si loin le temps où, en 1984, quelques étudiants de Stanford créaient une entreprise qui a quand même réalisé en 2008 quasiment 40 milliards de dollars de chiffre d'affaire, et dont l'impact de la crise économique globale en 2009 a certes fait baisser les ventes de 9% mais n'a pas vraiment atteint la marge brute, en baisse de seulement 0.2 point à...63.9% des ventes!

 

ericssonQuand on compare ces chiffres à ceux du leader du secteur des équipements de télécommunications, Ericsson, dont l'essentiel des ventes se fait auprès des opérateurs fixes et mobiles (quand celles de Cisco aux opérateurs ne font que 30% du total),  la baisse des ventes entre 2009 et 2008 n'à été que de 1% mais la marge brute a perdu 0.8 point à...36%, soit près de deux fois moins que Cisco en proportion. Les performances opérationnelles sont elles-aussi bien différentes, Cisco restant en 2009 au-dessus de la barre des 20%, et Ericsson passait lui à un résultat à un chiffre (9%), que lui envient pourtant nombre de ses concurrents. Comment expliquer une telle différence ? Qu'est-ce qui fait la réussite et la profitabilité de Cisco ?

 

Si l'on continue la comparaison entre Cisco et Ericsson, les investissements en recherche et développement sont, en proportion du chiffre d'affaire, comparables, et même plutôt à l'avantage du suédois (16% contre 14% en 2009) mais, avec un coût de ventes près de deux fois inférieur, Cisco est capable de dépenser près de deux fois plus en marketing et forces commerciales, imposant sa marque et la qualité de ses ventes directes et indirectes dans le monde entier. C'est le fer de lance de sa stratégie de "guichet unique" dans les réseaux de communication qui lui permet d'être incontournable dans les domaines en forte croissance de cette industrie particulièrement cyclique.

 

cisco-acquisition-q409-b-fig1 (1)Comment Cisco parvient-il à rester leader sur des marchés dont l'évolution est rapide, propice à l'innovation qui manque souvent aux grosses structures mondiales ? Par une croissance externe particulièrement bien menée et une capacité hors du commun à intégrer les acquisitions réalisées, ou à orchestrer de multiples partenariats. A l'inverse, combien d'équipementiers ont-ils souffert de ne pas savoir valoriser opérationnellement les acquisitions qu'ils réalisaient; les exemples sont nombreux, de la fusion d'Alcatel et de Lucent, à celle de Nokia et Siemens (dont on se demande laquelle sombrera en premier), sans oublier les acquisitions plus ciblées d'Ericsson (Marconi, Redback, Entrisphere, Tandberg Television,...) qui n'ont encore que peu contribué à renforcer la position assez faible du géant suédois dans les réseaux fixes. 

 

Or la fabuleuse profitabilité de Cisco contribue aussi à sa trésorerie; avec plus de 35 milliards de dollars en cash et equivalents au premier mai 2010, et ce malgré deux acquisitions assez lourdes en fin d'année 2009, on peut légitimement se demander ce que Cisco fera de ce trésor de guerre, dont la majorité se trouve hors des Etats-Unis en raison des taxes de rapatriement de fonds. Le PDG de Cisco John Chambers disait fin 2009 que le principal concurrent de Cisco à long-terme serait sans doute le chinois Huawei. Il n'est pas impensable que Cisco se pose la question à moyen terme d'un rachat des activités "réseaux" en difficulté de Motorola, Nokia-Siemens ou même Alcatel-Lucent pour éviter une trop grande dominance de Huawei sur ces créneaux. A moins que les deux leaders mondiaux Cisco et Ericsson décident d'une alliance stratégique dont l'effet de levier pourrait freiner la croissance du concurrent commun. Les paris sont ouverts !


Repost 0
Published by France 2.0 - dans Equipementiers
commenter cet article
21 mai 2010 5 21 /05 /mai /2010 09:51

Il y a quelque chose d'ironique et de révélateur dans la juxtaposition de plusieurs informations aujourd'hui, celle qui annonce l'issue des enchères de fréquences 3G/4G en Allemagne pour €4.4 Mds, celle qui célèbre l'irruption de Google dans le secteur de la télévision et celle d'une nouvelle consultation publique de l'ARCEP sur le sujet de la neutralité des réseaux. Quel lien entre ces dépêches apparemment sans rapport direct ?

 

Rundenergebnis_224.jpgLes enchères allemandes sont un galop d'essai européen avant la mise sur le marché du fameux dividende numérique, expression qui désigne ces fréquences libérées par l'extinction de la télévision analogique, dont une petite fraction est allouée aux opérateurs mobiles. Ces fréquences à elles seules ont rapporté près de €3.6 Mds aux autorités allemandes, une somme non négligeable par les temps de déficit public que nous connaissons. Les opérateurs Telefonica/O2, Deutsche Telekom et Vodafone se sont partagés équitablement ce spectre si attractif (E-Plus ayant jeté l'éponge, car ne voulait pas payer plus de €500 M par bloc fréquentiel), et déboursent chacun un peu plus d'un milliard d'euros pour en disposer. C'est beaucoup d'argent, mais l'enjeu est le déploiement des autoroutes de l'information de demain, le très haut débit mobile, l'accès à internet dans des conditions confortables, n'importe où et n'importe quand. Cette promesse, qui repose sur des technologies de nouvelle génération comme le LTE (Long Term Evolution), oblige les opérateurs dans le monde entier à rechercher de nouvelles fréquences. L'ARCEP va bientôt proposer un modus operandi pour les enchères françaises, et espère probablement récolter un montant équivalent, qui serait bienvenu pour arrondir les fin d'années du budget de l'état. Nul doute que Orange, SFR, Bouygues et Free Mobile vont concourir à coups de centaines de millions; Bouygues, non présent sur la bataille du reliquat des fréquences 3G, va nécessairement miser sur la 4G. Free Mobile, qui a tant besoin de spectre supplémentaire, devra aussi miser gros. Tant mieux pour les finances publiques. Par ailleurs, l'opportunité sera belle pour l'ARCEP de multiplier les obligations de licences en faveur de la couverture des zones rurales, des performances attendues, tout cela pour compléter le dispositif lourd et coûteux de déploiement de la fibre optique sur l'ensemble du territoire. 

 

googletv.jpgMais que vient faire Google dans cette discussion ? En quoi l'irruption de ce géant de la publicité sur internet dans la TV va avoir un effet sur les réseaux d'opérateurs, 3G ou 4G ? Tout le problème est là. Les opérateurs dépensent des sommes faramineuses pour disposer de fréquences, puis pour construire des réseaux, afin de proposer à leurs abonnés une connectivité mobile de qualité; ceux-ci peuvent ainsi accéder à internet, et disposer de services comme le futur Google TV, très consommateurs de bande passante, et gratuitement. C'est un pan important de la discussion actuelle sur la neutralité des réseaux. La discussion est différente sur les réseaux fixes pour lesquels la problématique de congestion est moins prégnante. il est vrai que les annonces de Google concernent d'abord notre salon, et l'internet fixe. L'écosystème formé avec Adobe, Sony, Intel, Logitech et un opérateur satellite, Dish Network, exclut d'emblée les opérateurs d'infrastructure terrestre avec lesquels Google va de nouveau se trouver en concurrence frontale. Et puis, dans un second temps, une fois que vous serez muni d'une TV compatible androïd, il sera tellement plus simple d'avoir un portable également compatible androïd...sur lequel vous pourrez aussi regarder Google TV. Rappelons à cet effet que Cisco prévoir une augmentation exponentielle de la consommation d'internet mobile essentiellement provoquée par la vidéo, qui représenterait 64% du trafic de données mobile en 2013.

 

arcepQu'en dit l'ARCEP dans sa récente consultation publique ?

- "Sur les réseaux mobiles, si l’objectif général [de non discrimination] doit prévaloir, il paraît toutefois admissible que les opérateurs mobiles puissent restreindre l’accès à certains sites ou applications pour des raisons objectives, non-discriminatoires et justifiées": ainsi il faudrait prouver le risque de congestion pour envisager une autorisation de restreindre la bande passante pour un service donné: mais, pour prendre l'exemple de Google TV, il faudrait en même temps baisser la qualité des propres applications de TV mobile de l'opérateur concerné!

- "de telles pratiques limitatives ne doivent être possibles que lorsqu’elles répondent à de réelles justifications techniques ; en aucun cas, elles ne peuvent consister en une interdiction ou un blocage d’application ou de protocole (y compris Voix sur IP, pair à pair, « streaming »)": impossible donc d'interdire Google TV sur les accès mobiles, en l'état actuel des réflexions de l'ARCEP.

- "[Ces pratiques limitatives] ne doivent pas non plus se substituer à l’investissement dans l’extension des capacités des réseaux qui doit prévaloir à moyen terme": c'est bien là tout le problème des opérateurs, confrontés à des investissements énormes pour le très haut débit fixe et mobile, comme le montrait au début de l'article l'exemple des enchères allemandes.

 

La concurrence sur les services fixes et mobiles entre opérateurs et grands acteurs de l'internet a donc encore progressé d'un cran, exacerbant encore davantage la polémique sur les aspects réglementaires de l'accès aux réseaux des opérateurs. L'annonce de Google sonne comme un avertissement sévère pour les opérateurs qui veulent à tout prix éviter d'être relégués au rôle peu flatteur de "fournisseur de tuyaux". L'enjeu est simple: la domination des salons et des poches des consommateurs, pour contrôler ces écrans qui nous sont chers. Et qui rapportent gros.


Repost 0
Published by France 2.0 - dans Opérateurs
commenter cet article
18 mai 2010 2 18 /05 /mai /2010 19:08

antenne-copie-2L'étude épidémiologique Interphone avait pour objectif d'étudier s'il existait une relation entre l'usage du téléphone mobile et les tumeurs du cerveau. Ses résultats ont été publiés ce 17 mai, soit deux ans en retard sur le calendrier initial; dix ans de recherches ont été nécessaires pour obtenir une valeur statistique précise sur le cas de milliers d'usagers vivant dans treize pays, dont la France. Peut-on enfin tranquilliser les quatre milliards d'utilisateurs du téléphone portable ?


Les résultats sont certes globalement rassurants, car une corrélation statistique entre cancers et utilisation du portable n'intervient que dans le cas d'usage très intensif de celui-ci, supérieur à trente minutes par jour (et à partir de 1640 heures d'utilisation cumulée). Et le professeur Elisabeth Cardis, responsable de l'étude pour le centre International de Recherche sur le Cancer (CIRC), précise que ce résultat n'est pas entièrement significatif en raison d'erreurs possibles dans le recueil des données. D'ailleurs, même dans ce cas, le risque calculé est de l'ordre de dix fois inférieur à celui provoqué par d'autres substances cancérigènes connues, et il n'augmente pas linéairement avec l'exposition.

 

Faut-il pour autant en conclure que tout risque est écarté ? Malheureusement non. Les responsables de l'étude eux-mêmes demandent l'ouverture de nouvelles recherches pour pallier aux manquements d'Interphone.  Quels sont-ils ?

interphone.jpg- la méthodologie de l'étude repose sur des questions posées aux participants (durée et nombre d'appels téléphoniques, position du téléphone sur le crâne, utilisation ou non du kit main-libres, modèle du terminal, etc...). Or il est difficile de s'assurer de la véracité des déclarations qui ne sont soumises à aucun recoupement, par exemple avec les factures détaillées, ou d'autres données factuelles. Faites le test: combien de fois et pendant combien de temps avez-vous appelé la semaine dernière ? Sans références précises, la réponse ne peut être qu'approximative.


- l'étude n'est valable que pour des durées d'exposition inférieures ou égales à douze ans. Or certains cancers peuvent se développer pendant des durées plus longues avant d'être détectés.


- l'analyse permet de comparer les résultats entre les cas malades et les témoins sains. Or certains résultats montrent que les utilisateurs de téléphones portables seraient moins susceptibles de développer des cancers du cerveau que les non-utilisateurs, ce qui tendrait à prouver que l'usage d'un terminal mobile protégerait contre ces pathologies. Cette hypothèse est exclue par les chercheurs, ce qui implique encore probablement l'imprécision de l'acquisition des données, ou un problème d'échantillonnage de la population observée.


- l'usage des terminaux mobiles a considérablement évolué en dix ans. Le temps d'utilisation augmente avec les forfaits illimités, la part de téléphonie baisse proportionnellement au temps passé sur internet, ou a écrire des SMS; le téléphone est plus souvent calé dans la paume de la main que plaqué sur le crâne. Par-ailleurs, Interphone étudie des personnes de 30 à 59 ans, laissant complètement de côté les natifs numériques et la génération Y. Le manque de flexibilité du protocole expérimental, nécessaire à des résultats statistiquement probants, ne parvient pas à suivre les évolutions des usages technologiques.


Interphone laisse les décideurs politiques dans une véritable impasse. Que décider ? Doivent-ils passer outre les déficiences de l'étude et affirmer que tout risque est écarté ? Ou bien doivent-ils, au nom du principe de précaution, continuer sur la voie d'une baisse générale des seuils d'exposition aux ondes, et d'une modification des comportements (par le biais des oreillettes, et de l'interdiction du portable pour les enfants) ? Mais rassurons-nous: l'étude COSMOS vient d'être lancée et suit désormais 250.000 adultes, de 18 à 69 ans, dans cinq pays, pour des résultats qui seront disponibles...en 2030 au plus tôt !


Repost 0
17 mai 2010 1 17 /05 /mai /2010 09:39

free mobileCe matin de nombreux articles évoquent les difficultés rencontrées par Free Mobile dans la mise en place de son service d'opérateur 3G: tout d'abord, les trois opérateurs existants refuseraient de discuter d'une itinérance nationale en 3G, et ensuite l'explosion du trafic de données mobiles serait un problème pour le nouvel entrant. Il me semble que ces sujets méritent une analyse plus détaillée qu'un simple constat apitoyé, car c'est l'avenir de la concurrence sur le marché français des services mobiles qui se joue.


Si l'on évoque en premier lieu l'intérêt des consommateurs pour l'internet mobile, il est certain que Free se trouve confronté à plusieurs défis de taille: pour conserver son image d'innovation et gagner un volume suffisant de clients, il faudra bien que l'opérateur propose des services de données différenciants, et à bas prix. Or ces services demandent un réseau dense et une bande passante importante, ce qui implique que Free est condamné à acheter des fréquences supplémentaires sous peine de décevoir la clientèle déjà acquise à son image. Une autre alternative serait d'obtenir un accord d'itinérance 3G data avec un opérateur existant, ce qui semble aujourd'hui difficile. Mais dire que la "3G est une mauvaise surprise pour Free" est assez simpliste, car le nouvel entrant savait depuis longtemps qu'il lui faudrait trouver les moyens de proposer aux freenautes les services et les terminaux les plus avancés.

 

Les options ne sont pas si nombreuses pour arriver à ces fins:

 

arcep- la première consiste à faire cavalier seul, pour une ouverture commerciale des services en 2012. Il faut dans ce cas que Free réussisse à acheter des fréquences supplémentaires, en concurrence frontale avec Orange et SFR qui vont certainement tout faire pour l'éviter, au prix d'enchères qui dépasseront peut-être les prévisions les plus optimistes de l'ARCEP. Free est candidat au rachat du reliquat des fréquences 3G. Le mécanisme réglementaire lui permet de doubler sa mise en accueillant à bras ouverts des MVNOs sur son réseau, ce qu'il a dit qu'il ferait. Il est probable que Orange et SFR assoupliront leurs propres accords avec certains opérateurs virtuels (qui seront finalement les grands gagnants de cette bataille) car le danger que représente Free est prioritaire. Je prédis donc que Orange et SFR remporteront ces fréquences 3G, ne laissant à Free que la possibilité d'acquérir des fréquences 4G dont on sait qu'elles ne seront disponibles qu'en 2012, et impropre à l'acquisition rapide d'une base d'abonnés munis de terminaux 3G. Cette première option est donc peu favorable en raison du jeu concurrentiel: Orange et SFR veulent marginaliser Free en ne lui laissant aucun accès à de nouvelles fréquences 3G.

 

- à l'inverse, la seconde option consiste à faire le pari d'une alliance avec un opérateur existant. C'est à mon avis inévitable. Et si les annonces d'aujourd'hui semblent prouver que, pour l'instant, Orange, SFR et Bouygues ne veulent pas entendre parler d'un accord d'itinérance 3G avec Free, je reste convaincu que ce dernier n'aura pas d'autre choix que de trouver un terrain d'accord, peut-être au prix de nouvelles concessions, avec l'un des trois membres de l'oligopole actuel. Nous avons déjà évoqué les raisons d'une telle stratégie dans un billet précédent. Elles restent aujourd'hui d'actualité, surtout si Free perd les enchères 3G, dont l'ARCEP publiera les résultats avant la fin du mois de mai.


Les paris restent ouverts, le jeu des prévisions stratégiques n'est pas une science exacte, mais peu d'options s'ouvrent à Free pour maintenir son image avant-gardiste qui plaît tant aux "geeks" et aux amateurs du "tout compris". A moins que Free mobile ne décide de se démarquer de Free ADSL, en adoptant une stratégie pauvre en services, uniquement axée sur des prix bas. A l'heure de l'iPad et de la révolution des comportements mobiles, nous ne pouvons l'imaginer. 


Repost 0
Published by France 2.0 - dans Opérateurs
commenter cet article
11 mai 2010 2 11 /05 /mai /2010 09:40

marianneIl faut rendre hommage au travail de retranscription qui permet d'avoir le détail des discussions tenues en Commission des finances de l'Assemblée Nationale...On y trouve parfois des prises de position détaillées d'acteurs majeurs de la politique économique de la France. En effet, pour ceux qui s'intéressent au devenir des €4.5 Milliards attribués au numérique dans le Grand Emprunt, l'audition du 5 mai de M. René Ricol, commissaire général à l'investissement (CGI), est particulièrement instructive.

 

On y trouve déjà les noms des neufs directeurs de programme choisis pour aiguiller les investissements d'avenir, sous la direction conjointe de Jean-Luc Tavernier et Philippe Bouyoux, deux figures historiques de l'administration des finances publiques: il s'agit de M. Thierry Coulhon pour les centres d'excellence, de M. Benoît Loutrel pour l'économie numérique, de M. Yves Lichtenberger pour l'emploi et l'égalité des chances, de M. Ivan Faucheux pour l'énergie et l'économie circulaire, de M. Jean-Luc Moullet pour le financement des entreprises, de M. Jean-Christophe Dantonel pour la santé biotech, de M. Spagnou pour les transports, de Mme Marie-Noëlle Granjard pour l'urbanisme et le logement, et de M. Claude Girard pour la valorisation de la recherche. Benoît Loutrel, ancien Directeur général adjoint de l'ARCEP, conduira donc le dossier des infrastructures et usages numériques.

 

Outre ces informations, René Ricol a également donné en Commission quelques pistes supplémentaires sur le traitement du dossier des infrastructures très haut débit, pour répondre à une question précise de la Sénatrice de la Seine-et-Marne, Nicole Bricq:

 

- dans un premier temps le commissaire général revient sur le problème du "chiffrage fiable pour l'équipement de tout le pays en très haut débit", qui reste à l'étude. Le Ministre de l'Espace Rural et de l'Aménagement du Territoire avait pourtant commandé un rapport d'étude sur le déploiement et le financement de ces infrastructures, dont les résultats semblent ne pas suffire. Autre problème dévoilé par René Ricol: la difficulté de répertorier et classifier les investissements déjà réalisés par les collectivités territoriales. Un travail de titan, que les quelques ressources du commissariat doivent pourtant réaliser, ce qui explique qu'avant l'été seul le calendrier de mise en oeuvre sera publié, car le "lancement proprement dit des opérations reste subordonné à un chiffrage des investissements à réaliser".

 

- le traitement du dossier du numérique fait exception dans le mode de gouvernance du Grand Emprunt: nous l'avions déjà souligné dans un autre billetseuls le CGI et la Secrétaire d'état à l'économie numérique seront garants de la gouvernance stratégique des fonds.

 

Fibre- l'approche: René Ricol avance l'idée de "créer un consortium Etat-Collectivités territoriales-Opérateurs pour la construction d'une infrastructure qui serait remboursée, à terme, par un droit de péage". On revient là à l'idée initialement défendue par la Caisse des Dépôts (et farouchement combattue par France Telecom) d'un organisme dont les capitaux publics et privés permettraient d'organiser la mutualisation des investissements du très haut débit. Ce serait une petite révolution dans le landernau des opérateurs privés, un bon moyen de limiter le monopole de France Telecom et une très bonne nouvelle pour la mise en place réelle et complète des infrastructures du très haut débit dans les zones moyennement ou peu denses. Mais pour autant René Ricol admet ne pas avoir encore "exploré toutes les possibilités techniques d'équipement de l'ensemble du pays". Il cite "des solutions permettraient aux câbles en cuivre, qui équipent actuellement le réseau, de supporter le très haut débit", référence claire aux propositions de l'opérateur historique de monter en débit, en opposition frontale à l'idée de mutualisation. Rien n'est donc encore arrêté.

 

- sur le plan de la neutralité des réseaux, René Ricol exprime aussi une position marquée: il s'insurge "contre la position de la Commission européenne qui considère que, quelles que soient les modalités de réalisation des infrastructures à très haut débit, tous les opérateurs pourront y avoir accès. Cela reviendrait à dire que les Etats paient les réseaux et que Google les utilise gratuitement". Dans le débat actuel lancé par l'ARCEP, il me paraît utile de relever cette opinion, qui semble indiquer que la notion de "droit de péage" d'accès aux infrastructures de réseaux, réclamée par les opérateurs, fait son chemin dans l'administration. Mais il reviendra à l'ARCEP de décider du cadre réglementaire définitif.

 

- enfin, René Ricol affirme l'importance de disposer d'une vision globale des technologies à mettre en oeuvre. Fibre, technologies hertziennes terrestres (LTE), satellitaires...beaucoup de solutions ont été proposées. Le commissaire général, avec beaucoup de bon sens, indique qu'il a été mis fin à un projet de couverture satellite des zones peu denses: "en raison du coût d'une telle satellitetechnologie, nous avons préféré arrêter les opérations car nous nous sommes rendu compte que ce procédé, au regard de ses performances techniques réelles, ne permet de satisfaire l'accès au très haut débit que sur 2 % du territoire national. Il serait déraisonnable d'investir de telles sommes pour un résultat aussi minime". Les promoteurs du projet de développement du satellite MEGASAT, dont nous avions souligné les limites par-rapport à d'autres technologies existantes, n'ont semble-t-il pas gagné cette bataille.

 

En conclusion, il reste un travail considérable à accomplir par l'équipe de René Ricol pour mettre en musique les engagements du Président et du gouvernement en faveur du numérique. Le point crucial est la coordination des plans de déploiements et des choix technologiques, pour une utilisation efficace des fonds publics à tous les niveaux de l'administration. 


Repost 0
7 mai 2010 5 07 /05 /mai /2010 16:00

Non, ce titre n'est pas un message codé de résistants français pendant la seconde guerre mondiale...mais bien l'illustration que les humains ne sont plus seuls à communiquer entre eux: nous entrons en effet à pas de charge dans l'ère des machines connectées.

 

50b connectionsJe ne suis pas seul à la dire: les chiffres publiés par l'ARCEP de l'observatoire des services mobiles pour le premier trimestre 2010 indiquent que, si le nombre d'abonnements baisse au niveau global pour la première fois depuis 2002, le nombre de cartes SIM ne servant qu’à échanger des données atteint près de 4 millions au 31 mars 2010, en croissance de 340 000 par rapport au 4ème trimestre 2009. 1,8 millions sont des cartes destinées aux seules communications entre machines, en augmentation de 83% par-rapport au premier trimestre 2009...et ce n'est qu'un début ! Aux Capital Market Days 2010 la semaine dernière à Stockholm, l'équipe de direction d'Ericsson a martelé que 50 milliards d'objets connectés allait voir le jour d'ici 2020, voyant dans cet immense besoin en connectivité de nouveaux marchés à conquérir.

 

M2M.jpgDe quelles machines parle-t-on ? Les applications sont multiples. Des bornes "Vélib" aux compteurs électriques intelligents, des colliers pour animaux domestiques aux flottes de véhicules, des distributeurs de canettes aux systèmes de télé-médecine,  de nombreux objets n'attendent plus qu'on les connecte à un réseau de communication pour optimiser leur fonctionnement, et diminuer le coût de leur maintenance.

 

La plupart des grands opérateurs ont bien compris que ce relais de croissance allait devenir de plus en plus important pour leurs résultats. En France, Orange, SFR et Bouygues Telecom affichent de fortes ambitions dans le domaine. SFR veut par exemple prendre 50% du marché des objets communicants en 2011. Dans cette perspective, les prédictions de l'Idate, qui estiment qu'en 2013, 4 milliards d'euros de chiffre d'affaires des opérateurs pourrait provenir de la connectivité M2M, aiguisent les appétits.

 

La révolution des machines communicantes aura certainement une grande influence dans notre vie de tous les jours, parallèlement à l'amélioration de notre propre connectivité grâce aux technologies hertziennes de quatrième génération (LTE). Espérons seulement que ces outils toujours plus performants auront aussi à coeur de progresser en simplicité (voire transparence) d'utilisation, sans quoi ce rêve de connectivité pourrait bien se transformer en cauchemar.


Repost 0
Published by France 2.0 - dans Opérateurs
commenter cet article
6 mai 2010 4 06 /05 /mai /2010 10:33

huaweiCréée en 1988 par un ancien officier de l'Armée de Libération Populaire de Chine, Huawei a présenté des résultats de chiffre d'affaires 2009 de $21.5 Mds, seulement légèrement inférieurs à ceux d'un géant comme Google. La croissance de l'équipementier chinois, qui a plus que triplé ses ventes depuis 2005, est impressionnante. Ses méthodes et sa stratégie sont d'une efficacité implacable: son agressivité commerciale, ses capacités de financement et la progression fulgurante de ses compétences techniques en font un concurrent redoutable, hier sous-estimé, aujourd'hui souvent diabolisé. Les difficultés rencontrées par Huawei en Inde sont, à mon sens, symptomatiques d'un palier stratégique atteint par la société, et dont le franchissement ne sera pas sans conséquences pour son devenir. 


chineRégulièrement confrontés à des accusation d'espionnage et à des liens douteux avec l'armée chinoise, la société Huawei, entièrement privée, n'a pas obligation, comme la totalité de ses concurrents majeurs, de faire auditer ses comptes et de dévoiler aux analystes financiers et industriels le détail de son organisation capitalistique. C'est bien ce que lui reproche l'état indien, dont la décision récente - non officielle - de suspendre l'achat d'équipements de télécommunications chinois notamment pour des raisons de sécurité fait trembler Huawei, dont les ventes dans ce pays sont passées de $170 millions à $2.3 Mds en cinq ans, atteignant plus de 11% de ses revenus mondiaux. La Chine et l'Inde s'affrontent régulièrement sur le plan commercial, et ce n'est pas la première fois que Huawei se heurte aux autorités indiennes, qui craignent que les sociétés de télécommunication chinoises ne profitent de leurs positions en Inde pour installer des systèmes d'espionnage économique sur les réseaux fixes et mobiles. En effet, Huawei n'est pas la seule société visée: ZTE, cotée en bourse, subit également les contraintes de l'administration indienne, ainsi que Acelink et UTStarcom. Le problème va donc au-delà de la seule situation de Huawei, mais la publicité très négative de cette affaire est susceptible d'affecter durablement le fournisseur chinois, qui serait prêt, pour la première fois, à divulguer la répartition de son capital au gouvernement indien.

 

huawei-india.jpgC'est un signe fort de transparence et de bonne volonté qui montre l'importance stratégique de ce moment dans l'histoire d'Huawei. Trop longtemps, l'entreprise a été accusée, à tort ou à raison, d'entretenir des liens obscurs avec l'état chinois; l'affaire indienne remet au devant de la scène le risque d'espionnage industriel qui concerne principalement le coeur des réseaux fixes et mobiles, là où Huawei a su prendre des parts de marché solides. En Inde, Huawei fournit ses équipements à la moitié des opérateurs présents. La concurrence commerciale entre les deux pays sur la scène internationale est telle qu'on peut comprendre la nervosité des autorités. 

 

Rendre public la répartition de son capital (après l'Inde, nul doute que d'autres pays seront intéressés!) est peut-être le premier pas vers une introduction en bourse qui permettrait de lever des milliards d'euros et de réorganiser le bilan de Huawei et la structure de son financement, au prix d'une transparence plus grande et des coûts inhérents aux présentation trimestrielles des résultats. Cela aurait un autre effet majeur: celui de rendre liquides les parts de l'entreprise détenues en majorité par les salariés, rendant ainsi plus concrète la valeur économique de leurs actions. Est-ce cela diminuerait la motivation des employés subitement enrichis ? Peut-être...

 

ll y a là un dilemme sérieux: forcée d'engager un processus de normalisation de sa gouvernance pour continuer à croître sur les marchés porteurs (Inde, Etats-Unis...), Huawei pourrait alors perdre une partie des atouts qui lui permettent aujourd'hui de se diversifier face à Ericsson, Nokia ou Alcatel-Lucent. La transparence a un prix...A quelques semaines des enchères indiennes pour l'attribution des licences 3G, les milliards d'investissement pour la mise en place des réseaux mobiles de troisième génération ne sont pas négligeables dans cette réflexion.



Repost 0
Published by France 2.0 - dans Equipementiers
commenter cet article
4 mai 2010 2 04 /05 /mai /2010 18:22

BundesnetzagenturAu bout de 130 tours, faisons le point sur les enchères outre-Rhin. Dans un premier billet nous faisions le pari que les fréquences du dividende numérique seraient les plus convoitées. En effet, sur près de trois milliards d'euros que les quatre opérateurs allemands s'engagent à payer au total à ce stade, plus des deux tiers concernent les six lots de 2x5 MHz. A l'inverse, les 160 MHz de spectre dans la bande 2.6 GHz n'intéressent les opérateurs qu'à hauteur de 200 millions d'euros. Les fréquences du dividende numérique sont donc valorisées plus de 30 fois plus que celles de la bande haute des 2.6 GHz, illustrant ainsi leur statut privilégié de "fréquences en or".

 

Cette différence notable d'intérêt entre les différentes bandes n'est pas propre au seul cas allemand: les enchères organisées aux Pays-bas ont également donné lieu à des montants décevants, les fréquences en 2.6 GHz n'atteignant qu'un montant total de...2.6 millions d'euros, avec pourtant cinq opérateurs en lice.

 

LTE-copie-1Une autre hypothèse se confirme également en Allemagne: aucun des opérateurs ne semble décidé à abandonner les fréquences du dividende numérique aux autres, et on se trouve pour l'instant dans une configuration de 2x10 MHz pour T-Mobil et Vodafone, quand E-Plus et O2 ne sont positionnés que sur 2x5 MHz. A moins d'une stratégie d'alliance à trois, peu probable, aucun opérateur ne disposera de canaux de 2x20 MHz qui permettraient pourtant de disposer des meilleures performances en 4G/LTE. Rappelons que si le débit moyen pourrait atteindre 5 à 15 Mbps par personne dans un réseau chargé et sur un canal de 20 MHz, il serait divisé par deux sur un canal de 10 MHz.

 

Ces premières conclusions sont certainement analysées de près par notre régulateur des télécoms en France, l'ARCEP, qui s'apprête à lancer une procédure d'attribution de ces fréquences à l'intention des opérateurs français. Faut-il favoriser les performances, et imposer la mise en place d'un consortium qui aurait la prééminence sur un canal non dissociable de 20 MHz dans le dividende numérique, permettant ainsi aux technologies hertziennes de contribuer à plein au développement du très haut débit dans notre pays ? Ou faut-il favoriser une distribution "à l'allemande", afin d'obtenir de la location de ces fréquences un montant financier optimum, de plusieurs milliards d'euros ? le gouvernement doit décider de l'usage des fonds obtenu; si le pactole est versé, comme pour la 3G, au Fonds de Réserve pour les Retraites, gageons que la seconde méthode aura la préférence de Bercy!

 

 

Repost 0

Présentation

  • : France 2.0
  • : Un regard passionné sur l'évolution des technologies de l'information en France et à l'étranger. Les opinions exprimées sont strictement personnelles.
  • Contact

Recherche