Overblog
Suivre ce blog Administration + Créer mon blog
15 août 2012 3 15 /08 /août /2012 18:50

augmented reality-2En avons-nous suffisamment conscience? Probablement pas...la réalité telle que nous la vivons et la percevons sera vécue et perçue differemment par nos enfants. Il faudra une, peut-être deux générations - pas plus! - pour qu'un filtre soit placé entre leurs sens et le monde environnant. Quel filtre? Celui de la réalité dite "augmentée". 

 

Plusieurs indices sont là pour nous y préparer. Tout d'abord le surgissement des logiciels et bases de donées dans nos habitudes de vie. Le recours quasi quotidien à des moteurs de recherche, l'accès rapide et facile à l'information, pour apprendre, comparer, analyser, décider. Tout cela d'autant plus facilement que l'accès à internet se tient là, dans notre poche ou notre sac à main. Toujours plus rapide et facile d'utilisation, grâce à des applications dédiée et pré-configurées. C'est une première évidence. Ajoutons-y la miniaturisation des terminaux, l'augmentation rapide de la bande passante disponible sur les réseaux et la couverture quasi-totale des zones urbaines et sub-urbaines. Deuxième évidence. N'oublions pas le succès mondial des réseaux sociaux et l'immense richesse des informations personnelles mises à disposition, souvent liées à l'identité et à la photo des internautes. Troisième évidence. Rappelons-nous enfin que des tests sont déjà en cours pour lier tous ces élements entre-eux: je veux parler du projet "Glass" de Google, et de l'incursion du géant américain dans le secteur des terminaux depuis le rachat de Motorola Mobility (et son application layar créée par l'équipementier, installée sur 19 millions de terminaux avec 3 millions d'utilisateurs actifs - voir aussi les explications en anglais sur cette vidéo très claire sur les objectifs visés). Barack Obama with Google Glass pictureSi l'on identifie la courbe de l'augmentation de l'usage de la réalité augmentée à celle de la téléphonie mobile, on peut prévoir de passer la premier milliard d'utilisateurs actifs en...2020. Quand Tomi Ahonen, expert des technologies mobiles, parle de la réalité augmentée il évoque la révolution du "huitième média grand public", après l'imprimerie, l'enregistrement, le cinéma, la radio, la télévision, l'internet et le mobile. Pour lui cela ne fait aucun doute, nous y allons tout droit. La vague est immense et rien ne pourra l'arrêter.

 

 

Comme pour mieux enfoncer le clou, des videos envahissent le net et tentent de décrire l'effet que pourrait avoir sur nos vies une réalité augmentée assumée, intégrée et omniprésente. Loin des fameuses lunettes Google, imaginez des lentilles. Dans notre champ de vision, tout s'anime; réalité augmentée et réalitée virtuelle se combinent; il devient sans doute difficile de faire la part des choses entre réalité sensorielle et images. La télévision, par exemple, est virtuelle; il suffit d'un mur blanc et d'une fonction "share" pour regarder à plusieurs. Sons/odeurs (voire contacts) artificiels doivent aussi pouvoir s'ajouter à la solution. Les possibilités sont infinies. Tout devient pré-mâché...et tout devient jeu...car la réalité augmentée ouvre aussi des univers nouveaux aux gamers. Des vidéos de prospective décrivent bien quand ce concept prend vie. La téléréalité prend des proportions universelles, et l'homme devient une sorte de zombie assisté. On peut voir des scènes qui évoquent d'ailleurs la panne du système, et l'incapacité soudaine des personnages de trouver leur chemin. D'autres dialogues ouvrent des débats de fond: doit-on tout dire de soi sur son profil? Comment garantir une quelconque vie privée si tout ce que l'on fait est analysé et enregistré par des machines supposées nous aider? 

 

 

Dans des proportions moindres, ces questions sont déjà posées aujourd'hui. Des travaux récents ont abouti à la création d'un algorithme permettant de prédire nos déplacements futurs sur la simple base des données GPS enregistrées dans nos smartphones et ceux de nos amis. Tout cela ne relève pas seulement d'un film de science-fiction, mais finit par paraître plausible et réel. La technologie fait des pas de géant et rend des services incroyables: plus besoin de "par coeur", plus besoin de livres, plus besoin d'utiliser notre capacité à raisonner...le cloud sera à disposition d'un simple battement de cil. Bien sûr il y aura des bugs, des disfonctionnements, des trous de couverture; problèmes qui seront résolus rapidement et qui ne pèsent pas lourd au regard des avantages énormes en termes de connaissance de nos goûts, habitudes, comportements, sans parler du contrôle citoyen transformant nos yeux en autant de caméras de surveillance...

 

Progrès réel ou marche accélérée vers un monde décérébré? Sans doute faut-il être pleinement conscient de cette révolution en marche, de ses possibilités et de ses travers. Certaines discussions actuelles au sujet de la protection numérique de la vie privée sont d'autant plus importantes qu'elles posent des bases importantes pour la suite: protection de l'identité qui combine droit à l'oubli et à la protection des données, limitation de la reconnaissance faciale, barrières aux enregistrements sauvages (à des fins commerciales) de nos comportements d'internautes et de mobinautes. Par ailleurs, quoi de plus important que d'enseigner à nos enfants le goût du beau, du vrai et du naturel?  

 

Partager cet article
Repost0
15 juillet 2011 5 15 /07 /juillet /2011 18:27

boussole"La France est en passe de manquer le virage du numérique, et le retard qu’elle prend aujourd’hui risque de  s’avérer rapidement irréversible."

 

"Après avoir été en avance sur le haut débit, fixe et mobile,  notre pays marque le pas et peine à relever le défi du très haut débit, qui conditionnera pour  les décennies à venir la croissance de ses entreprises et le bien-être de sa population."

 

Mais quel est donc le lanceur d'alertes qui exprime en des termes aussi virulents le fait que le véhicule "France" soit au bord de la sortie de route, n'ayant su aborder le virage du très haut débit avec la vitesse et la détermination qui lui permettraient d'éviter "un inéluctable déclin"? Un Sénateur, Hervé Maurey, dont le rapport d'information daté du 12 Juillet dernier exprime avec force et conviction le manque de cohérence de l'action gouvernementale depuis quelques années dans le domaine du numérique. Disparition du secrétaire d'Etat en charge de ce domaine, non suivi des orientations d'Octobre 2010 (notamment s'agissant de l'abondement du Fonds d'Aménagement Numérique des Territoires), manque d'ambition et de stratégie d'excellence nationale dans ces infrastructures de pointe.

 

walledgardenC'est en ces mêmes termes que plusieurs représentants de l'industrie ont exposé leur point de vue à Bruxelles mercredi dernier. Le déploiement du très haut débit est en retard par-rapport aux objectifs posés dans "l'agenda numérique 2020" de la Commission. "L'Europe a besoin d'entreprises saines, désireuses et capables d'investir. Les acteurs qui ajoutent de la valeur devraient être encouragés par des mesures incitatives adaptées", peut-on lire dans le document remis à Neelie Kroes par le groupe de travail piloté par Vivendi, Deutsche Telekom et Alcatel-Lucent.

 

L'enjeu de ces débats est passionnant. L'Etat doit répondre au défi des milliards d'euros d'investissement à venir dans le très haut débit de manière stratégique, et s'assurer d'une régulation qui puisse satisfaire à la fois les entreprises, les collectivités locales et les utilisateurs. Et les acteurs privés doivent faire preuve d'innovation pour garder leur place dans la chaîne de valeur des technologies de l'information depuis qu'une nouvelle bataille fait rage entre les acteurs de l'Internet et les opérateurs de réseaux, les seconds reprochant aux premiers d'utiliser leurs infrastructures sans contribuer à leur construction ou à leur maintenance.  

 

droit à l'oubliOr c'est au franchissement d'un autre virage que nous assistons; l'affrontement entre opérateurs et grands fournisseurs de services laisse place à l'émergence de nouvelles alliances stratégiques qui vont contribuer à changer certains modèles économiques et, espérons-le, accelérer l'investissement dans le très haut débit. Stéphane Richard le faisait remarquer au Forum des Telecoms et du Net organisé par les Echos: "j'ai évolué sur le sujet des relations avec les géants de l'internt; d'un affrontement frontal, nous passons aujourd'hui à un mode de partenariat prometteur". Le plus probable est que ces partenariats aboutiront à des offres de services premiums, à ces classes de première, business et éco qui sont notre quotidien dans l'industrie des transports. Rien de nouveau à cela depuis que Verizon et Google avait déjà émis des propositions claires à ce sujet, il y a un peu moins d'un an. Il semble aujourd'hui que ce type d'accord soit en passe de se propager en Europe, à condition que les règles de la neutralité de l'internet ne soient pas trop restrictives.

 

Libérer l'investissement privé, permettre à de nouveaux marchés de se créer sans pour autant priver l'utilisateur final de sa liberté d'internaute et de l'accès à tous les contenus: la réponse au cri d'alarme du Sénateur Maurey se trouve aussi dans ce délicat imbroglio réglementaire, car l'Etat à lui seul ne parviendra pas à mobiliser les capitaux nécessaires à la couverture de ses territoires. Il faut impérativement lier les 33 propositions du rapport d'information au cadre plus général, européen celui-là, d'une plus grande liberté donnée aux usages intelligents des réseaux et à leur monétisation, dans le strict respect de la concurrence et des utilisateurs.

 

"La fibre optique et la 4G, soit les deux technologies qui devraient porter  demain la majorité des données numériques, en accès fixe et mobile, n’en sont qu’à leurs balbutiements", écrit encore fort justement le Sénateur Maurey. Pour que la France porte haut l'excellence industrielle historique dans le domaine des télécommunications, et double ses concurrents dans la ligne droite qui succédera au virage difficile d'aujourd'hui, il faut un Etat chef d'orchestre de long-terme, et une industrie forte qui trouve un équilibre entre nouveaux services à valeur ajoutée et objectifs d'aménagement du territoire.

 

 

Partager cet article
Repost0
23 avril 2011 6 23 /04 /avril /2011 13:20

antenneCa y est! Enfin, l'ARCEP (l'Autorité de régulation des communications électroniques et des postes) et le gouvernement ont indiqué qu'ils finalisaient les conditions d'attribution des précieuses fréquences qui serviront à la mise en place du très haut débit mobile en France. L'appel d'offre sera lancé en mai, et l'attribution effective d'ici la fin d'année, ce qui signifie que les fonds débloqués par les opérateurs lauréats le seront aussi fin 2011. Les débats acharnés entre les tenants de l'aménagement du territoire, préférant des conditions de déploiement plus contraintes au risque de voir baisser les prix d'attribution, et les tenants d'enchères libres qui prônent un produit financier maximal pour renflouer le budget de l'Etat, seraient-ils tranchés? Comment s'y retrouver dans ce feuilleton aux rebondissements nombreux, alors que plusieurs pays, Etats-Unis, Suède, Allemagne, pour ne citer que ceux-là, ont déjà attribué des licences et lancé des services commerciaux performants? 

 

Un sujet-clé semble mis à l'écart des commentaires sur ce dossier. Si le produit des licences fait la une des manchettes comme enjeu principal des débats, la destination des fonds n'est quasiment jamais évoquée, alors que celle-ci est assez fondamentale pour mieux comprendre la situation. A qui profiteront donc les recettes des licences?

 

  • - A l'armée. Oui, par décision du Président de la République. Il faut expliquer que ces licences étaient préalablement utilisées par l'armée pour les systèmes "Félin" et "Rubis", et que celle-ci a du trouver des systèmes de remplacement et prévoir le déménagement des infrastructures sans perdre ses capacités d'action. Voici ce qu'en dit le général Puget interrogé par la commission des finances de l'Assemblée en Avril 2010: " En mars 2008, une réunion interministérielle a acté que les déménagements seraient payés par les opérateurs. Ensuite, le Président de la République lui-même a annoncé des ressources exceptionnelles pour financer la loi de programmation militaire. Pour ce qui me concerne, il s’agit de la vente des fréquences."

 

 

budget-defense.jpg

 

  • - L'armée inclut donc dans son budget triennal 2011-2013 des recettes exceptionnelles dont une partie seulement proviendra des licences hertziennes, et une autre des ventes d'actifs immobiliers, au total pour plus de trois milliards d'euros en trois ans. Or, bien que les prix de l'immobilier de l'Ile de France soient au plus haut, et que la plupart des cessions prévues concernent des biens parisiens, un rapport parlementaire de 2010 s'inquiétait déjà de "l'échec de l'opération Vauban", et donc de retard pris dans le calendrier de la part immobilière des recettes exceptionnelles.  "L'objectif de produits de cession immobilière est fixé à 400 millions pour 2011", a néanmoins détaillé le ministre du Budget dans une communication en Conseil des ministres. Le produit des licences hertziennes doit donc impérativement arriver en 2011 pour ne pas voir le déficit se creuser, ce qui explique la pression mise sur le calendrier; dès lors, la récente proposition de Xavier Niel de repousser la date de l'appel d'offre a peu de chances d'aboutir.

 

 

niel-free-tva-hausse-internet-starck-xavier-jpg-292713-jpg_.JPG

      © Meigneux / Sipa

 

  • - L'armée prévoit trois milliards de ressources exceptionnelles sur trois ans, dont les deux-tiers provenant du produit des enchères sur les fréquences hertziennes. Or une analyse des prix de certaines cessions réalisées dans des pays voisins, notamment en Allemagne, permet d'envisager non pas deux, mais bien environ quatre milliards d'euros dans des conditions à peu près équivalentes, avec quatre opérateurs en lice et un prix atteint de l'ordre de 73 centimes/MHz/habitant pour les fréquences dans la bande du très prisé dividende numérique (790-862 MHz); cette valeur atteinte en France permettrait d'obtenir 2.7 milliards d'euros uniquement pour cette bande. Si on y ajoute la bande 2.6 GHz également proposée, un calcul similaire sur la base des enchères allemande permet d'envisager au total près de trois milliards d'euros pour le budget de la défense, soit un milliard de plus que ce qui est budgété. Ceci permettrait d'éponger les frais d'essence en forte hausse, les frais d'opérations extérieures sur plusieurs fronts et le retard des cessions immobilières. Un soulagement évident pour le Gérard Longuet confronté depuis le début de son mandat à une situation budgétaire délicate

 

  • - N'oublions pas, dans cette analyse, les autres bénéficiaires indirects de ces enchères! L'ARCEP vient en effet de confirmer que les infrastructures du haut débit mobile interfèreront avec les dispositifs de réception de la TNT pour 150 000 à 500 000 foyers. Ces derniers bénéficieront d'une aide financière pour la mise en place de systèmes de réception de télévision par satellite.

 

Quelle conclusion tirer de cette analyse? Certainement que les négociations en cours pour finaliser les conditions d'attribution des licences 4G ne doivent pas être simples; d'un côté la loi Pintat demande clairement que les fréquences du très haut débit mobile soient attribuées dans un cadre d'aménagement des zones moins denses, pour éviter une nouvelle fracture numérique. De l'autre, le budget de l'Etat, et plus précisément celui de la Défense, exige de valoriser les actifs de l'Etat au maximum de leur valeur. Pour finir, ce débat a lieu dans un calendrier très serré pour obtenir le déblocage des fonds avant la fin de l'année...Pas facile, dans ce contexte, d'organiser l'appel d'offre. Rendons hommage aux équipes de l'ARCEP qui, du dossier de la fibre optique à celui du très haut débit mobile, marchent sur des oeufs.

 


Partager cet article
Repost0
29 janvier 2011 6 29 /01 /janvier /2011 16:41

Brueghel-tower-of-babel.jpgQue peut bien venir faire l'histoire de la tour de Babel dans un blog dédié aux nouvelles technologies de l'information? Cela vient tout simplement d'une constatation: l'évolution technologique tend à répondre aux conséquences symboliques de la construction de la tour. Pour contrecarrer le projet des hommes, il est écrit dans le livre de la Genèse de la Bible que "c'est là que Dieu confondit le langage de tous les habitants de la terre et c'est là qu'Il les dispersa sur toute la face de la terre": l'éloignement géographique, et l'incompréhension entre les peuples succèdent à la proximité et au langage unique originel.

 

Il faut se rappeler que cette histoire de la Tour de Babel fait partie de la section de la Bible qu'on appelle la préhistoire ou le cycle des origines (les onze premiers versets du livre de la Genèse), une section de la Bible qui ne prétend pas être historique ni scientifique. Ces textes évoquent de manière symbolique le passé, le présent et l'avenir des êtres humains. Parlons du passé: l'exploration géographique et la démocratisation des transports ont permis de rapprocher les peuples, et on ne compte plus les tentatives de trouver un langage universel pour mieux se comprendre, comme la création de l'esperanto à la fin du XIXème siècle. Aujourd'hui, si les distances et les langues restent un barrière comme tout voyageur fréquent le ressent, les technologies de communication jouent un rôle de plus en plus grand dans le rapprochement entre les hommes; l'instantanéité de la mise en relation, où que l'on soit, et la mise en place de communications vidéo réduit les distances plus sûrement que les avions, tant la qualité du son et des images rend presque perceptibles les émotions et la présence physique de l'interlocuteur. Pour s'en convaincre, il suffit de regarder la vidéo ci-dessous de la première interview journalistique d'une personne en vidéoconférence holographique...Depuis, on ne compte plus les conférences avec "invités virtuels" sur scène, pour des raisons d'empêchement géographique ou de sécurité.



 

Mieux encore, la technologie "cloud" et les milliers de serveurs prêts à faire fonctionner les applications mobiles les plus innovantes offrent un moyen de répondre au problème de la barrière des langues étrangères. Fidèles remplaçants des interprètes professionnels ou des dictionnaires en format poche, les téléphones mobiles peuvent aujourd'hui traduire nos paroles en quasi-simultané dans plusieurs langues. L'application Androïd Google translate est véritablement révolutionnaire, comme le montre la viéo (en anglais) ci-dessous:


 


  

Ainsi nous voyons bien par ces quelques exemples que l'homme est sur le point d'échapper à la punition symbolique de Babel, par des modes de communication sophistiqués dont on peut penser que la qualité de service et le réalisme ne feront que progresser dans les années à venir. Les débouchés de ces technologies sont gigantesques, tant au plan économique qu'au plan de l'entente et de la paix universelle.

 

Bien évidemment, tout ne sera pas résolu. La langue n'est qu'un des éléments des différences culturelles, et les machines auront fort à faire pour décoder les sens cachés et les non-dits. Par-ailleurs, un hologramme reste la représentation transformée d'une image réelle et ne pourra jamais remplacer l'être original, bien que des recherches aient lieu pour pouvoir toucher ces silhouettes virtuelles!

 

L'avenir offre néanmoins d'étonnantes perspectives, et la virtualisation de nos échanges et de nos voyages peut faire peur. Pourquoi aller à Tokyo soi-même quand on peut y envoyer son avatar vidéo? Pourquoi apprendre une langue difficile quand la traduction simultanée et irréprochable est à portée de main? Peut-être parce que rien ne remplace les relations humaines directes, et que l'apprentissage des subtilités d'une culture passe par l'apprentissage d'une langue. Bienfaits technologiques contre déshumanisation incontrôlée: il faudra faire des choix, au risque de construire une nouvelle tour, encore plus haute que la première.

 


Partager cet article
Repost0
31 décembre 2010 5 31 /12 /décembre /2010 13:00

 

newyear11-hp.jpgPour conclure cette année 2010, pourquoi ne pas se tourner vers une société devenue icône de l'innovation, et dont les solutions ne cessent de nous entourer et de nous rendre service? Google, pour ne pas la nommer, continue de nous fournir de nouvelles applications surprenantes au premier regard, mais dont ne nous pourront peut-être plus nous passer dans quelques mois.

 

Qui d'entre nous n'a pas utilisé Google Earth pour la première fois en se disant que c'était joliment fait mais plutôt accessoire? Et maintenant, qui de nous ne vérifie pas l'environnement de sa location de vacances en trois dimensions, pour constater d'éventuels vices cachés? Il se dit même que l'administration fiscale utilise l'outil à la recherche de signes extérieurs de richesses non déclarées dans les résidences secondaires...

 

En cette fin d'année 2010, Google continue de nous étonner. Prenons pour exemple le "Body Browser" qui doit faire les délices des étudiants en médecine; la vidéo ci-dessous en présente les principales caractéristiques. Qui sait...peut-être utiliserons-nous un jour prochain cet outil comme application de télémédecine? Nous serions scannés, virtuellement écorchés vifs par notre PC, pour mieux définir la source de nos maux avant intervention du médecin? Une piste à la réduction du trou de la sécu... 

 

 

 

 

Une autre vidéo de l'éditeur américain montre l'étonnante puissance des logiciels Google Docs; là aussi, il n'est pas loin le temps où nous sortirons du "cloud" tous les logiciels bureautiques dont nous aurons besoin. Le poids de l'habitude et de l'hégémonie nous fait encore préférer le modèle fort coûteux des licences, mais il est fort probable que leur temps soit compté. Outre la qualité de la prestation du trio de "compositeurs" de la présentation décrite, il est intéressant de voir les possibilités d'interaction et de création en commun de l'outil.

 

 

 

 

 

Une question passionnante demeure...Comment fait Google pour être sûr de la pertinence de ces nombreux produits, le plus souvent réalisés pendant ces fameux 20% de "temps de création libre" laissé aux Googlers pendant leur temps de travail? Plusieurs réponses à cela. D'abord, l'échec est inhérent au processus d'innovation: nous avons tous appris cela à l'école. le Nexus One en est un exemple récent.

 

Néanmoins, Google a mis en place un outil d'aide à la décision puissant, dont le principe s'appuie sur la théorie des marchés prédictifs. De quoi s'agit-il? Tout simplement d'utiliser le fait qu'on est plus intelligents à plusieurs, et que toutes les ressources de l'entreprise peuvent être mises à contribution pour accompagner et soutenir ses grandes orientations stratégiques. L'intelligence collective dépasse ainsi le simple cadre des quelques individus puissants qui entourent le PDG, et dont la connaissance des sujets de prospective est parfois incomplète ou subjective. 

 

Ainsi les Googlers sont-ils encouragés à investir sur des "marchés" dont la nature est la probabilité de réalisation d'évènements, comme le nom du prochain champion du Superbowl (un aspect ludique pour encourager les employés à venir tester le vote) ou, plus sérieusement, le nombre de nouveaux utilisateurs de Gmail dans les six prochains mois ou encore le succès d'un nouveau produit mis en ligne.

 

happened_by_predicted_all_weeks-706902.GIFLa pertinence de ce système a été mise en lumière dès 2005, année ou les prédictions des employés ont été comparées aux occurences réelles des évènements. Le résultat, obtenu avec plus de mille employés votant sur 146 questions différentes, est tout à fait impressionnant; les "prix" de marché, qui correspondent en fait aux probabilités d'occurence des évènements testés, collent quasiment parfaitement avec la réalité effective! Bo Cogill s'en était fait l'écho sur le blog officiel de Google

 

 

 

Depuis, les techniques se sont affinées, les erreurs communes liées à la subjectivité ou aux idées reçues des intelligences collectives sont encore mieux corrigées. Qui n'a jamais rêvé de pouvoir prédire l'avenir? Quelle société ne voudrait-elle pas mieux anticiper les évolutions de son marché et de ses concurrents?

 

Adieu jeux de tarot ,boule de cristal et augures de toutes sortes; aujourd'hui l'avenir se lit grâce aux internautes. Pour preuve, Google et la CIA ont investi ensemble en 2009 dans la firme Recorded Future. Les marchés prédictifs sont une réalité à intégrer au plus vite dans les processus stratégiques des sociétés les mieux armées...pour 2011!

 

Très bonne année à tous, de la part du Blog France 2.0!

---------------------------------------------

 


Partager cet article
Repost0
7 novembre 2010 7 07 /11 /novembre /2010 22:51

augmented reality-2Trimestre après trimestre, les commentateurs s'interrogent sur l'avenir de l'industrie des télécommunications; certains jugent que nous sommes en ce moment arrivés à un point d'inflexion. En effet, dans la grande bataille (ou co-opétition) que se livre les grands acteurs que sont les opérateurs, les fournisseurs de service et les équipementiers pour s'approprier une partie plus ou moins grande de la chaîne de valeur, certaines périodes servent de révélateur à une nouvelle répartition du rapport de force. A ce titre, la période actuelle est très intéressante:

 

- du côté des équipementiers de réseaux, après une vague de consolidation, le passage de la crise et l'impact de la concurrence chinoise, les choses semblent se calmer un peu. Les résultats Q3 2010 montrent une croissance encourageante et des profits inattendus. Les acteurs chinois peinent désormais à dépasser 20% de croissance des revenus, et déçoivent; ils sont tenus en échec aux Etats-Unis, ce qui limite leur capacité d'expansion. Alcatel-Lucent1 et Nokia-Siemens, que l'on tenait pour mourants, résistent aux coups de boutoir de la concurrence et signent des contrats pharaoniques aux Etats-Unis.

 

boussole- du côté des opérateurs de réseaux, les nuages s'accumulent sur un marché plus complexe qu'avant. Non seulement faut-il investir massivement dans de nouveaux cycles technologiques à l'accès fixe et mobile, déployer de la fibre et introduire HSPA+/LTE (ces milliards d'euros seront plus difficiles à rentabiliser car les consommateurs renâclent à voir leurs forfaits augmenter), mais aussi la réglementation se fait-elle de plus en plus contraignante et coûteuse. Dans le même temps les usages sociaux et l'innovation des fabricants de terminaux provoquent l'augmentation exponentielle du trafic de données sur les réseaux dont une partie importante échappe aux opérateurs pour atterrir dans l'escarcelle des fournisseurs de services qui profitent de l'effet d'aubaine des autoroutes de l'information sans péages.

 

- oui, ce sont bien ces fournisseurs de services, ou fournisseurs OTT pour "over-the-top", qui créent une sorte de panique dans le pré carré des opérateurs traditionnels. Quand Apple et Google lancent leur propre version de la télévision sur internet, quand ils innovent à un rythme que les opérateurs ne parviennent pas à suivre, parlant même de s'affranchir des chaînes de distribution de ceux-ci en intégrant à la source des cartes SIM multi-opérateurs, il y a de quoi s'inquiéter. Les réponses par la mise en place du WAC (Wholesale Applications Community), par la menace de créer un système d'exploitation mobile nouveau, ou bien encore par un lobbying continu en vue de créer des droits d'utilisation des réseaux, dans un contexte où les entorses à la neutralité du réseau sont surveillées à la loupe, notamment en France.

 

La rapidité de transformation de cette industrie rend son étude particulièrement passionnante, et pourtant nous ne sommes encore qu'aux balbutiements de progrès technologiques que les exercices de prospective 2010-2020 permettent seulement d'imaginer. Rendez-vous dans dix ans!

 

-----------------------------

(1) l'auteur de ces lignes est salarié d'Alcatel-Lucent, société citée dans l'article. Il faut cependant préciser que ce blog n'exprime que des opinions personnelles qui n'engagent en aucun cas l'entreprise considérée. 


Partager cet article
Repost0
4 octobre 2010 1 04 /10 /octobre /2010 10:26

vague.jpgC'est une très grosse vague dont les opérateurs gravissent déjà la pente...Seulement ils n'en voient pas vraiment encore la crête, tant le coté exponentiel de l'augmentation du trafic de données sur leurs réseaux permet d'imaginer les pires scenarios d'engorgement, d'investissements massifs et de perte de rentabilité. Une récente étude de Rewheel vient donner un éclairage intéressant et promet aux opérateurs des moyens de garder une profitabilité semblable à celle qu'ils connaissent aujourd'hui. Le cadre de l'étude est celui d'un opérateur situé dans un grand pays d'Europe.

 

Rewheel chart1L'un des paramètres déterminants de l'étude concerne naturellement la transformation du marché sous l'effet des nouveaux objets communicants, et principalement des smartphones et PC (en attendant que bien d'autres objets de la vie courante s'y ajoutent d'ici 2020). Ici, grâce à l'attrait de ces nouveaux terminaux, l'opérateur témoin arrive a conserver une croissance non négligeable de son parc d'abonnements malgré une pénétration déjà supérieure à 100% des abonnements mobiles. C'est une excellente nouvelle du point de vue de l'augmentation annuelle des revenus, et cela préfigure la future source de croissance des opérateurs mobiles confrontés non plus à l'équipement des derniers réfractaires au portable mais bien à la multiplication des cartes SIM pour chaque abonné, humain ou machine. Ainsi en France, entre le deuxième trimestre 2009 et le deuxième trimestre 2010, le nombre de cartes SIM utilisées exclusivement pour internet (les fameux dongles USB) a cru deux foix plus vite que le par actif 3G (source: Observatoire Trimestriel de l'ARCEP, paragraphe 3.1.2).

 

Rewheel_chart2.jpgBien évidemment, la conséquence immédiate de la croissance du nombre de PC communicants et de smartphones est l'explosion du trafic dans les réseaux, principalement due à l'utilisation courante de la vidéo. La vague est exponentielle et menace les opérateurs n'ayant pas suffisamment anticipé son arrivée sur leurs réseaux. En effet, il est difficile voire impossible à ces opérateurs de modifier considérablement le niveau d'investissement d'une année sur l'autre, car l'impact sur les profits serait brutal et très mal vu notamment par les actionnaires. Or, certaines projections de Rewheel montrent que le ratio des investissements sur les ventes de l'opérateur devrait passer de 12% à plus de 30% si rien n'est fait pour optimiser les besoins en couverture et capacité des réseaux fixes (fibre optique) et mobiles (3G/HSPA et LTE). Une autre solution revient à retarder ces investissements et/ou brider les performances du réseau à un niveau tel que même les utilisateurs moyens le ressentent: dans ce cas, la rentabilité est fortement diminuée non pas par l'investissement ou l'exploitation mais pas la perte de revenus provoquée par une perte rapide de parts de marché. La situation est-elle donc désepérée? La perte de profitabilité est-elle inéluctable?

 

Non, répond Rewheel, dont l'argumentation repose sur l'évolution innovante des réseaux: l'utilisation de fréquences basses 800/900 MHz pour la 3G et le LTE, la modernisation de l'accès avec des stations de base multimodes, capables de changer de fréquence ou de technologie en minimisant les interventions sur site, et l'arrivée de technologies de grande capacité comme LTE et LTE advanced permettraient, à condition d'avoir également prévu la modernisation vers IP du réseau de transport, une optimisation importante des investissements: un facteur "vingt" d'augmentation de la charge des réseaux serait ainsi supporté sans perte significative de rentabilité; néanmoins, entre deux et trois points de bénéfices avant impôts et charges financières (EBIT) seraient tout de même à risque, et Rewheel suggère donc dans son modèle de faire baisser les coûts marketing de 10%, et de réduire les coûts d'exploitation du réseau en externalisant certains services.

 

ABI ResearchPour ABI Research, un autre paramètre permet de relativiser l'impact de la vague des données sur le ratio "investissements sur revenus" des opérateurs mobiles: ainsi la référence à un marché haussier, favorable à des organisations "achats" multinationales et centralisées, exacerbé par une concurrence très vive entre équipementiers, permet à la société d'analyse d'affirmer que les investissements en matériel et logiciel pourraient être amenés à fortement diminuer à partir de 2012.

 

Ces études viennent fortement contredire les tenants d'une vague de trafic incontrôlable qui va engorger les réseaux mobiles et provoquer des interruptions de service à échelle nationale. Bien que certaines zones de forte densité de population aient en effet subi de tels désagréments, et bien que l'explosion du trafic de données mette les directions techniques des opérateurs à rude épreuve, l'innovation technique et la concurrence viennent à point nommé pour équilibrer rentabilité financière et capacité de traitement.

 

Cela dit, les modèles économiques dépendent toujours des données d'entrée utilisées, et la vitesse et de la taille de la vague du trafic dans les années à venir sera déterminante. Rewheel estime que le trafic moyen par abonné s'élèvera à 3 Go par mois en 2014 pour son opérateur témoin européen. Si cette projection devait s'avérer frileuse, et s'il fallait encore multiplier ce chiffre par deux ou trois sous l'effet de nouveaux usages mobiles qui commencent tout juste à s'amorcer, alors il ne fait aucun doute que les opérateurs subiraient de plein fouet des besoins d'investissement considérablement plus élevés qu'aujourd'hui, au risque de ne plus pouvoir satisfaire leurs clients.  

 


Partager cet article
Repost0
27 septembre 2010 1 27 /09 /septembre /2010 17:05

Apple_Newton.jpgCet article, je ne l'écrit pas, je le dicte...et je me demande bien pourquoi les hommes se sont tant appliqués à améliorer les technologies d'écriture électronique; les claviers rétractables aux touches minuscules, les claviers virtuels encore plus mal pratiques...

 

Tout a commencé avec le Newton d'Apple en août 1993, dont l'algorithme de reconnaissance d'écriture manuscrite révolutionnaire incitait les usagers à s'entraîner de longues heures à griffonner sur l'écran des symboles cabalistiques, supposés ressembler aux lettres de l'alphabet romain. Abandonné en 1998, le Newton était pourtant un précurseur des Palm et autres agendas électroniques dont on disait fièrement qu'ils allaient remplacer le papier. Je me souviens en effet de quelques collègues qui avaient pris au mot cet axiome, et qui, par défi, tentaient de prendre toutes leurs notes sur un assistant électronique flambant neuf. Ils s'escrimaient, courbés sur leurs machines, pour finalement constater qu'ils étaient moins rapides et moins fiables que sur papier...

 

La technologie de reconnaissance vocale est née dans les années 1950, mais il a fallu attendre 1993 pour qu'une première société commercialise un logiciel de reconnaissance vocale compatible avec les cartes son du marché, sous Windows. En 1997, Bill Gates, fondateur de Microsoft prédisait que la reconnaissance vocale, dont il avait toujours pensé qu'elle révolutionnerait le monde de l'informatique, allait remplacer clavier et souris; il se trompait simplement de date. Pour lui, la généralisation de ce service serait achevé en 2010. Mais la mise en place a mis davantage de temps, et pour s'en convaincre il suffit de regarder cette vidéo d'une démonstration ratée de reconnaissance vocale sous Vista (un must!):

 

 

 

 

BillGates.jpgLa route a été bien longue, avant que les prédictions de Bill Gates commencent à pouvoir se réaliser. Cette utilisation fonctionnelle du langage pour la commande des objets intelligents et communicants, si naturelle aujourd'hui, est passée par des phases de stagnation du développement. Tant qu'il s'est agi de subir une phase d'apprentissage, le client n'a pas voulu de ces logiciels. La reconnaissance vocale se devait d'être immédiate et simple pour être adoptée par le grand public.

 

Le tournant technologique a eu lieu en 2009, en même temps que l'irruption massive sur le marché de téléphones intelligents et multi-fonctions, dont l'une des seules limites restait...le clavier trop petit. Le contrôle par la voix a bien progressé sous l'impulsion des GPS de voiture, et d'autres applications spécialisées, notamment militaires, nécessitant cette fonction. Puis est arrivé Google, et cette fois-ci c'est Eric Schmidt, son directeur général, qui s'est risqué au jeu des prédictions en février 2010. L'avenir de la reconnaissance vocale était alors tracé, non plus fondé sur la seule puissance des ordinateurs ou des téléphones, mais sur un échange entre ces terminaux et le Nuage, dont la puissance de traitement allait rendre la technologie parfaitement fiable. Ecoutons Eric Schmidt:

 

 

 

 

A partir de cette année charnière que fut 2010, les innovations se sont multipliées. La commande des ordinateurs et des téléphones par la voix, et la disparition des souris et claviers annoncée par Bill Gates ont progressé de manière spectaculaire. Plus personne ne tapait ses recherches sur Google, mais tout le monde susurrait à son ordinateur les mots et expressions qui allaient interroger les bases de données du moteur de recherche. De même, plus aucun adolescent n'utilisait ses pouces pour écrire des SMS ou des profils Twitter ou Facebook: l'application Dragon Dictation s'en chargeait bien plus facilement par la voix, ce qui eut d'ailleurs pour effet indirect de rétablir l'orthographe correcte des messages échangés! Enfin, la traduction simultanée des conversations en toutes les langues a permis de démultiplier les possibilités de communications vocales, ce qui a eu des effets incroyables sur la pacification du monde.

 

En parallèle, la recherche fondamentale sur la reconnaissance des pensées a rapidement débuté pour pallier le bruit provoqué par les usagers; le mode "silencieux" des ordinateurs qui avaient appris à lire sur les lèvres ne suffisant pas, il fallait encore aller plus loin et différencier les états psychiques correspondant à chaque pensée, grâce à l'électroencéphalographie. Je me souviens encore des débuts de cette science, et des premières démonstrations lors des présentations TED, comme l'atteste cette vidéo (que mes petits-enfants trouvent vraiment préhistorique):

 

 

 

 

Aujourd'hui, en 2020, pensées et voix ont remplacé l'action des mains et des doigts. J'utilise encore la reconnaissance vocale quand je suis seul, comme pour réaliser ce billet, car j'y trouve d'autres satisfactions que dans l'action psychique directe. Est-ce mon faible pour Flaubert et son épreuve du gueuloir? Peut-être bien...mais la comparaison s'arrête là: plumes d'oies, stylos et claviers ne font plus partie de mon quotidien.

 

Sources:

 

(1) Damien Leloup - « La reconnaissance vocale se démocratise » - lemonde.fr - 20 septembre 2010

(2) « Quand l'ordinateur lit sur les lèvres dans toutes les langues » - atelier.fr – 6 septembre 2010

(3) Duncan Graham-Rowe – « Turning thoughts into words » – technologyreview.com – 23 septembre 2010

Partager cet article
Repost0
23 septembre 2010 4 23 /09 /septembre /2010 10:04

social networks6 heures du matin...Martin S., Directeur Général, est en route vers le siège de son entreprise, il le signale sur Twitter et Facebook:

_ "On my way to the office. Another great day for the company, we are launching Project Tectra!".

A peine arrivé dans son bureau, Martin s'assure que les comptes YouTube et Dailymotion de la société ont bien été mis à jour avec une courte vidéo enregistrée la veille et qui décrit de façon didactique le fameux "projet Tectra". Ainsi, il peut aisément répondre aux quelques blogueurs spécialisés qui ont immédiatement réagi sur sa timeline. Il leur signale le lien vers la vidéo et celui vers le dernier article de son propre blog qui donne une analyse détaillée de la stratégie d'ensemble de l'entreprise, dont Tectra n'est qu'une première brique. Dix minutes plus tard, il rejoint sa garde rapprochée dans une salle de réunion équipée pour une rencontre virtuelle avec analystes et clients-clés, une vidéoconférence interactive sur Internet. Martin sourit: la journée commence bien; employés, clients, journalistes et experts influents sont en phase avec la respiration de l'entreprise. Ils apprécient la méthode.

 

social networks jobsProspective ou réalité? Cette petite histoire n'a rien de révolutionnaire, et peu sembler bien naturelle à beaucoup de dirigeants. Pour d'autres, ce mode d'action est tout simplement impensable et inacceptable tant les réseaux sociaux paraissent dangeureux, incontrôlables ou tout simplement constituent une fâcheuse perte de temps. La fracture entre ces deux modes de management s'accroît avec la taille de l'entreprise: si fin 2009 près d'un dirigeant de PME sur cinq était un utilisateur actif de réseaux sociaux pour la promotion de son entreprise, ils sont bien peu dans les responsables de grands groupes à ne pas laisser cette activité à leur direction de la communication, qui, si elle fait parfois très bien son travail, n'en reste pas moins souvent frustrée de ne pouvoir compter sur la présence active du DG. Or, selon Jean-Nicolas Reyt, chercheur, consultant et blogueur:

 

"La majorité des entreprises aujourd'hui ne sont pas adaptées pour travailler en temps réel. Certaines d'entre elles développent un poste de Community Manager confié à des jeunes recrues, parfois des stagiaires, pour prendre le tournant des réseaux sociaux. C'est de la poudre aux yeux. Selon moi, il s'agit aujourd'hui de comprendre qu'un tel poste est de la responsabilité d'une personne fortement expérimentée et surtout au fait de la stratégie de l'entreprise afin de pouvoir prendre la parole en toute autonomie."

 

Ainsi, l'implication managériale dans la diffusion d'informations en "mode 2.0" paraît fondamentale. 

 

Cette transformation du mode d'expression des dirigeants passe certes par un risque accru de ne pas tout maîtriser dans la chaîne de la communication. Dans le cas contraire, la présence sur les réseaux sociaux reste parfois artificielle et contre-productive vis-à-vis de l'attente des experts de ces nouveaux médias, dont l'influence est de plus en plus importante sur l'image des sociétés, et qui attendent un davantage de transparence et d'attention. Un exemple de ces tâtonnements est la publication récente par une grande société pharmaceutique d'une règle d'utilisation des réseaux sociaux à l'intention de l'ensemble des employés, en parallèle au recrutement d'une responsable Internet et réseaux sociaux. Malgré l'abondance et la précision des règles, cette ouverture innovante est globalement très appréciée des experts et blogueurs comme le montre la vidéo ci-dessous (en anglais), bien que les réactions montrent bien que le mouvement d'ouverture était en fait déjà informellement engagé:

 

 

 

Une remarque, pourtant, nous paraît particulièrement éclairante: un des blogueurs interrogés indique qu'il a l'impression que la publication du guide d'utilisation des médias sociaux a été le signe que la société a intégré ces nouvelles pratiques "à son sommet", et que les dirigeants ont vraisemblablement compris l'importance d'officialiser ce nouveau mode de communication, une première dans le monde des poids lourds de l'industrie pharmaceutique. Pour autant, les dirigeants de l'entreprise ne semblent pas encore s'impliquer beaucoup dans cet échange ouvert d'informations: pas de blog corporate, pas d'individualisation managériale de la nouvelle ouverture aux réseaux sociaux. La transformation se fait donc pas à pas.

 

social networks-300x229Lorsqu'un Directeur Général lui-même décide de se servir de ces nouveaux outils de promotion, que cela lui soit naturel en raison de son âge, ou qu'il comprenne l'enjeu de différentiation sous-jacent, les résultats sont souvent spectaculaires, comme le rapporte Sharlyn Lauby dans Mashable. Que cela soit du point de vue des clients, des employés potentiels et existants ou des innombrables relais d'influence que compte Internet, l'effet d'image et de motivation est comparable à celui obtenu par un bon "leadership", qui se manifeste par la capacité à fédérer et à mobiliser les énergies autour d'une action collective. Le "leadership 2.0" serait donc en quelque sorte la démultiplication de cette capacité par l'utilisation d'outils interactifs de diffusion de l'information. L'exemple de Loïc le Meur CEO de Seemic en est sans doute une bonne illustration. Celui de Nathalie Kosciusko-Morizet, dans son rôle particulier de Secrétaire d'Etat au gouvernement, est lui-aussi bien connu.

 

Bien sûr, cette composante nouvelle du leadership comporte des risques et demande une grande cohérence entre les actions des dirigeants et leurs messages. Cette cohérence est le fondement de la e-réputation à laquelle s'intéressent de nombreux chercheurs et experts. Sans e-réputation maîtrisée et cohérente, difficile de faire preuve de ce leadership 2.0. A l'inverse, l'exercice du leadership 2.0 vient considérablement alimenter et renforcer une e-réputation souvent statique et artificielle. Ce lien entre cohérence et e-réputation a été magnifiquement démontré par Ludovic François, professeur affilié à HEC, avec le cas d'Eric Dumonpierre, CEO de Berden. La morale de l'histoire est très claire: "patrons, exprimez-vous en ligne avant que les internautes ne le fassent à votre place !". En France, les patrons du CAC40 devraient d'ailleurs s'en inspirer si l'on en croît une enquête menée par Hopscotch et ePerf Consulting.

 

Enfin, on constate sans surprise que les sociétés du secteur des technologies de l'information ont été parmis les premières à comprendre et utiliser les ressorts du leadership 2.0. Cela paraît bien naturel car ces firmes vendent souvent des produits et services connexes aux réseaux sociaux; le trafic sur ces réseaux est parfois directement lié à leur chiffre d'affaire. "Eat your own dog food!", s'exclament parfois les anglophones avec raison. Pourtant, là encore, l'usage des réseaux sociaux par les dirigeants est inégal. Les blogs d'entreprise sont pourtant monnaie courante, la présence sur Twitter et Youtube régulière et variée; mais il manque souvent l'effet d'entraînement du leader d'opinion qu'évoquait Jean-Nicolas Reyt. Dans l'article "cultivating thought leaders versus company bloggers", Audrey Watters de ReadWriteStart souligne une fois de plus que le leadership 2.0 procède de la crédibilité de la source d'informations. Un exemple réussi est celui de Cisco, dont les équipes pronent l'usage des réseaux sociaux comme un formidable outil de productivité, et dont certains dirigeants sont des leaders d'opinion incontestés comme Inder Sidhu, Vice-President Stratégie et Planification, ou encore Padmasree Warrior.

 

Laissons le le mot de la fin à Brian L. Roberts, CEO de Comcast, dans une courte vidéo que ne renierait pas notre Martin S. du début de l'article, et qui insiste plus particulièrement sur l'impact qu'ont eu les médias sociaux sur l'image de l'entreprise.

 

 

 

 


Partager cet article
Repost0
20 septembre 2010 1 20 /09 /septembre /2010 13:13

arcep-logo-new_00FA000000542611.jpgIl faut rendre hommage à l'ARCEP (Autorité de Régulations des Communications Electronique et des Postes) et à son Président, Jean-Ludovic Silicani, pour l'énergie dépensée à organiser le marché des télécommunications dans notre pays, surtout au moment charnière que constitue cette année 2010. Je ne suis d'ailleurs pas surpris quand le Président Silicani affirme que l'ARCEP est au moins deux fois plus productive que ses collègues européens tant le rythme des publications et consultations publiques est élevé, et tant les décisions structurantes (nouvel opérateur 3G, enchères pour les fréquences mobiles 3G et 4G, cadre réglementaire du FTTH, montée en débit...) se succèdent.

 

parlementL'ARCEP évolue dans un cadre juridique fixé par le Parlement; celui-ci a donc un devoir de suivi des actions de l'Autorité, surtout en ces temps de grande activité. C'est la raison pour laquelle le Président Silicani a été entendu par la Commission des Affaires Economiques de l'Assemblée Nationale, le 8 Septembre dernier. Un compte-rendu complet permet de lire le détail des questions posées par les députés, et les réponses de Jean-Ludovic Silicani. Plusieurs prises de position, notamment sur le financement de la fibre optique (la taxation des paires de cuivre de l'opérateur historique considéré comme une "fausse bonne idée" par l'ARCEP) ont été abondamment relayées par la presse. Nous n'y reviendrons pas. En revanche, une phrase du Président Silicani a résonné à nos oreilles comme un avertissement habile, et une façon de prévenir députés et citoyens d'un paradoxe qui dépasse la compétence de l'ARCEP mais qui va sans doute devoir être tranché dans les semaines qui viennent.

 

Il s'agit du cadre réglementaire qui organise les enchères pour les fréquences du très haut débit mobile. Une consultation publique de l'ARCEP va permettre de recueillir et de synthétiser les propositions de chacun des acteurs, sur la base d'un schéma déjà très avancé proposé par l'Autorité; mais c'est le Ministre en charge des télécommunications qui tranchera et signera l'arrêté de publication des règles officielles, ce que n'a pas manqué de rappeler Jean-Ludovic Silicani. En effet, le sujet est sensible: si la mise à disposition des fréquences devrait rapporter plusieurs milliards d'euros à l'Etat, la loi Pintat fixe au très haut débit mobile un objectif prioritaire d'aménagement du territoire. C'est la raison pour laquelle le Président de l'ARCEP indique finement:

 

"le Gouvernement devra procéder à un arbitrage entre recettes budgétaires et degré d’ambition en matière d’aménagement du territoire : plus les obligations faites aux opérateurs seront fortes, moins les recettes budgétaires seront élevées. C’est un choix politique, il appartient au Gouvernement, mais celui-ci devra respecter la loi."

 

enchèresLe message est clair, et pourtant il est passé relativement inaperçu. Les députés n'ont pas spécifiquement réagi à cette affirmation dans la suite de l'audition. Pourtant, le dilemme est bien posé entre des spécifications d'enchères souples, peu contraignantes, susceptibles de favoriser la concurrence entre opérateurs pour des fréquence rares, peu nombreuses, et particulièrement intéressantes, dont le produit a rapporté 4.38 milliards d'euros à l'Allemagne, et une réglementation attentive à prévenir la fracture numérique par une couverture rapide et complète du territoire, au risque de geler l'appétence des opérateurs pour les fréquences, et de fortement diminuer les rentrées d'argent public. En ces temps de disette budgétaire, il est évident que le gouvernement et l'ARCEP seront soumis à des pressions fortes pour maximiser le revenu des enchères, bien qu'il faille aussi respecter la loi.

 

Jean-Ludovic Silicani le dit clairement: le choix est politique! A ce titre, nous sommes sollicités comme citoyens pour entrer dans ce débat, une fois les enjeux clairement posés. Plusieurs questions se posent à nous:

 

- la crise économique et les difficultés budgétaires de la France modifient-t-elles l'objectif prioritaire d'aménagement du territoire du très haut débit mobile au profit d'un objectif de maximisation du produit des enchères "4G"?

 

- est-il normal, alors que les discussions commencent sur la loi de finances 2011, que le produit des enchères soit prévu d'être alloué au Ministère de la Défense, et que le produit des enchères soit évalué à €1.5 milliards, soit €3 milliards de moins qu'en Allemagne? N'est-ce pas une façon habile d'échapper au programme d'économies demandé par Bercy?

 

Les discussions informelles sont évidemment déjà engagées entre gouvernement et opérateurs pour trouver un compromis entre recettes et contraintes d'aménagement du territoire. Notre avis est que les fréquences du très haut débit mobile, et en particulier celles inférieures à 1 GHz, possèdent un caractère si stratégique qu'elles seront certainement très disputées, quelques soient les contraintes de déploiement; l'exemple allemand en témoigne. En revanche, le choix du gouvernement d'allouer les fonds recueillis au budget de l'armée paraît singulier et discutable. L'Allemagne a utilisé les €4.4 milliards pour réduire son déficit. Que fera la France? 

 


 

Partager cet article
Repost0

Présentation

  • : France 2.0
  • : Un regard passionné sur l'évolution des technologies de l'information en France et à l'étranger. Les opinions exprimées sont strictement personnelles.
  • Contact

Recherche