Trop tôt pour penser à la 5G ?

Trop tôt pour penser à la 5G ?

Alors que les Anglais viennent à peine de découvrir la 4G, mais l’industrie de la téléphonie mobile est déjà en train de préparer la 5G. Pourquoi tant d’empressement ?

Il est bien loin le temps où Motorola nous montrait, en 1973, un prototype de la première génération de téléphones sans fil. La première génération de téléphones grand public des années 1980 utilisait une technologie analogique qui nous permettait seulement de transmettre la voix.

La seconde génération, celles des années 1990, a adopté le standard GSM (Global System for Mobile communications), un standard international qui permet la transmission de paquets de données et ouvre ainsi la voie vers la transmission de texte. Poursuivant dans cette lancée, le Nokia 7110 fut le premier téléphone nous permettant d’avoir accès au web, c’était en 1999 !

En 2007, Apple introduit l’iPhone, et les choses changent du tout au tout. Pensé d’abord comme un ordinateur, puis comme un téléphone, l’iPhone a eu comme conséquence de décupler le volume de données en circulation sur les réseaux, un volume qui double d’année en année. C’est pour faire face à ces augmentations, la 4G est lancée en 2012.

La question qui se profile alors naturellement, et qui devra être résolue par la 5G, c’est comment optimiser au mieux les ressources limitées de fréquence radio, et la demande exponentielle de volume de données demandée par nos modes de vie de plus en plus connectés.

Big Data, Partie #2 – Big Data et les entrepreneurs

Dans notre contribution précédente, nous avons fait connaissance avec les Big Data. Je vous propose maintenant un éclairage en profondeur pour comprendre quels sont les enjeux de l’essor des Big Data. On va parler dollars, politique et nouveaux modes de propagande.

 

L’élan entrepreneurial autour du Big Data

Qui dit défi technique dit énergie créatrice pour le résoudre. Pour préparer cet article, Silicon-Valley.fr a rencontré Sean Gourley, Docteur en physique, TED Talk Fellow, Rhodes Scholar, qui a co-fondé l’entreprise Quid un exemple de succès lié aux Big Data. Quid récolte les données qui sont disponibles publiquement sur les compagnies privées innovantes et sur les investisseurs qui les financent, traquant le nombre de leurs employés, leur capacité à lever des fonds, les procès qui leur sont intentés, les nouveaux partenariats, bref, tous les événements majeurs de la vie d’une entreprise. Ces informations sont modélisées grâce au logiciel de Quid sous forme d’une « carte de l’innovation », qui permet aux clients de Quid, comme Microsoft Corp. par exemple, de traquer les entreprises et les technologies innovantes dans le secteur qui les intéresse.

Cette modélisation haute précision permet de visualiser les secteurs où un rapprochement technologique serait profitable (le monde de la cryptographie et celui des technologies mobiles par exemple), et les nouveaux marchés à conquérir. Plutôt qu’un rapport volumineux produit pas des consultants à un moment donné, et obsolète dès qu’il est imprimé, les données de Quid sont accessibles et actualisées en temps réel.

Quid est financé notamment par le Founders Fund de Peter Thiel (fondateur de Paypal), un fond d’investissement de capital risque basé à San Francisco.

 

Les business model des Big Data

Les startups qui se développent autour de l’idée du Big Data promettent à leurs investisseurs des retours avantageux. Comment passe-t-on du traitement de grosses bases de données à la récolte pécuniaire ? Trois business modèles principaux se sont imposés.

 

Le modèle des revenus publicitaires : Google, Facebook, Yelp

L’exemple canonique est celui de Google, qui s’est imposé comme le moteur de recherche le plus efficace du web, c’est-à-dire celui ayant réussi à répertorier au mieux et à rendre accessible le plus facilement l’énorme base de données qu’est Internet. Il s’ensuit des revenus faramineux grâce aux contenus publicitaires des annonceurs qui veulent être vus sur les pages du géant du web.

 

Le modèle de la vente des données : LinkedIn

LinkedIn, c’est la rencontre des Big Data et des ressources humaines. L’entreprise, qui a son siège juste à côté de Google, a réussi à s’imposer comme le réseau social du monde professionnel, avec deux nouveaux utilisateurs qui viennent rejoindre chaque seconde les 240 millions déjà présents. La valeur de l’action a d’ailleurs été multipliée par six depuis la capitalisation boursière de 2011. La principale source de revenu de LinkedIn, c’est un ensemble d’outils de recrutement vendus aux entreprises, et dont la valeur dépend principalement de l’étendue de sa base de données, c’est-à-dire la précision des informations que nous avons bien voulu y déposer.

 

La redirection de trafic : Amazon, Google Books

Les recommandations proposées par ces plateformes qui mettent à disposition des contenus  permettent de rediriger le trafic des consommateurs vers d’autres produits à consommer, ce qui augmente les ventes. Exemple de succès massif : Amazon. La richesse d’Amazon, c’est d’avoir pu se constituer une base de données tellement vaste sur les comportements d’achat de tout un chacun que chaque vente participe à la précision des recommandations et peut ainsi générer d’autres ventes, à l’infini.

 

Pour ces trois modèles, les critères de réussite sont identiques et reposent sur :

  • le volume des données recueillies (plus il est important, plus la modélisation sera juste)
  • des infrastructures efficaces pour le traitement des données dont le volume est toujours croissant
  • des interfaces qui rendent l’expérience des consommateurs souple et leur donnent envie de partager leurs données.

 

Ariane Zambiras

Radio reportage: histoire et ambiance de San Francisco

Radio reportage: histoire et ambiance de San Francisco

 

A l’occasion de la visite de François Hollande à San Francisco, qui devrait avoir lieu autour du 12 février, Silicon-Valley.fr vous invite à (ré)-écouter deux belles émissions que France Culture a consacré à notre ville. Points de vue d’architectes, d’artistes, d’informaticiens reconvertis, de quoi apprendre beaucoup sur l’histoire de San Francisco et la formation de l’identité de ses quartiers.

 

Lien vers la première partie.

Lien vers la deuxième partie.

 

Bonne écoute !

 

 

 

 

Les choses bougent dans l’internet des objets : Nest racheté par Google pour 3,2 milliards de dollars

Les choses bougent dans l’internet des objets : Nest racheté par Google pour 3,2 milliards de dollars

Google met un pied dans nos maisons. Le géant de la Silicon Valley vient de racheter Nest, l’entreprise qui a mis au point le premier régulateur de température intelligent (learning thermostat) pour la maison, pour la modique somme de 3,2 milliards de dollars.

Nest, fondé en 2010 par Tony Fadell, ancien ingénieur hardware d’Apple et créateur de l’iPod, emmène Google sur le chemin de la maison intelligente, connectée à nos smartphones, qui réagit à notre comportement et devance nos envies – en réchauffant par exemple la maison à bonne température juste pour l’heure où nous avons l’habitude de rentrer.

Pour Google, ce rachat signifie un tournant important vers les produits électroniques grand public (consumer hardware devices). Du smartphone, on passera bientôt au smarthome.

Pour nous consommateurs, la question est comme souvent celle de la protection de notre vie privée. Comme la polémique déclenchée autour de la nouvelle génération de compteurs électriques informatisés ici en Californie (les smartmeters de PG&E) – qui permettent aux hackers/cambrioleurs potentiels de savoir quand nous sommes hors de la maison avec une consommation électrique en baisse – la question est de savoir ce que Google fera des données collectées sur nous par ces thermostats intelligents : nos heures passées à la maison, les heures passées dehors, les heures de sommeil etc.

Les bureaux de Silicon-Valley.fr sont équipés d’un terminal Nest pour régler le chauffage, et malheureusement, ce n’est pas encore au point. Nous invitons toute personne bienveillante de chez Nest-Google à venir nous donner un coup de main, il fait pour l’instant plus chaud dehors que dedans…

Big Data, Partie #1

Pourquoi tout le monde parle de Big Data ?

L’expression est sur toutes les lèvres et sur tous les écrans. Big Data, c’est le défi informatique de cette décennie, le domaine d’innovation qui émoustille les capitaux risqueurs, et la formule magique qui inspire nos petites décisions au quotidien. Mais c’est quoi exactement, Big Data (ou datamasse en français) ?

Quand on commande un livre ou un grille-pain sur Amazon, l’algorithme du site nous suggère d’autres articles susceptibles de nous plaire étant donnés les achats réalisés par des milliers d’internautes avant nous (c’est ce qu’on appelle targeted merchandizing). Même système pour la plateforme de distribution de contenus culturels Netflix, qui recommande la série Orange is the New Black si l’on a aimé et qu’on attend avec impatience la prochaine saison de Mad Men. Netflix va même plus loin puisque les données récoltées (les passages de films les plus regardés, les moments ennuyeux pendant lesquels les téléspectateurs utilisent la fonction « avance rapide », à quel moment de la journée les contenus sont visionnés, etc.) sont utilisées pour choisir de quels films acheter les droits auprès des studios de cinéma et pour élaborer de nouveaux programmes, comme par exemple la série House of Cards. Google TV et Apple TV pourraient d’ailleurs suivre l’exemple en créant du contenu à partir des données de visionnage récoltées sur leurs plateformes. Les prédictions sont souvent bien affutées.
Pour en savoir plus sur l’algorithme de Netflix, on pourra se rendre ici, et pour un post détaillé sur la façon dont Netflix utilise ses données, là.

Agréger une multitude de cas individuels pour dégager du général

Au degré zéro, « Big Data » fait référence au traitement automatisé de bases de données de très grande ampleur pour repérer des corrélations. L’agrégation d’une multitude de comportements individuels, comme par exemple les achats réalisés sur Amazon, permet la modélisation mathématique d’une tendance – vous avez acheté tel article, vous apprécierez sûrement tel autre.

Pas seulement du commercial

Le type de données analysées ne se réduit pas aux chiffres de vente. Google maps nous propose un trajet optimisé en fonction des conditions de circulation en temps réel, Facebook nous propose de nouveaux amis en fonction des liens déjà établis, les sites de rencontre en ligne nous proposent des partenaires romantiques en fonction de nos réponses à un questionnaire sur nos goûts et nos habitudes. Toutes ces propositions sont formulées grâce à l’analyse d’un grand nombre de données recueillies au préalable. Mêmes avancées dans le domaine de la médecine, avec la possibilité de prédire grâce à l’analyse de milliers d’électrocardiogrammes quels sont les facteurs qui font courir le risque de subir une seconde attaque cardiaque.

Ces exemples nous montrent la puissance des algorithmes et le rôle de plus en plus important que nous les invitons à jouer dans nos vies, du plus trivial au plus important.

Pas seulement du descriptif

Quelle différence alors entre Big Data et les statistiques descriptives traditionnelles ? Les statistiques descriptives nous donnent des renseignements sur l’échantillon sélectionné et visent à rendre compte aussi précisément que possible des caractéristiques de l’échantillon.
Les statistiques inductives (Big Data) analysent un échantillon donné de façon à en déduire les informations sur la population représentée par cet échantillon, pour extrapoler. Les statistiques inductives font donc appel aux probabilités (« proba » pour les intimes) pour établir des relations de causalité, prédire les comportements et monter en généralité.

Le défi technique que représente le traitement de bases de données toujours plus grandes
La gestion informatique de bases de données énormes représente un défi technique important, puisqu’il faut à présent des machines beaucoup plus puissantes pour être capable de stocker et de traiter les données à cette nouvelle échelle de grandeur.

Vous avez probablement entendu les rumeurs qui courent autour de la mystérieuse péniche qui appartiendrait à Google, flottant au milieu de la baie de San Francisco ? Selon certains, il s’agirait d’un gros centre de données refroidi par l’eau fraîche de la baie, comme le laisse suggérer un brevet déposé par Google. Les Big Data sont partout autour de nous, littéralement.

En plus du défi relié à leur stockage, les Big data apportent également un défi technique aux chercheurs. En effet les méthodes d’apprentissage automatique (les algorithmes utilisés pour résumer et prédire au mieux les comportements des individus à partir d’un ensemble de données), doivent être adaptées à ces données, ce qui, de part leur quantité et leur hétérogénéité, augmentent considérablement la durée nécessaire à leur traitement mais aussi potentiellement le taux d’erreur qui doit être contrôlé. Autrement dit, avec Big Data, il y a en même temps la possibilité d’avoir des résultats plus fiables parce que la quantité de données à partir desquelles ils ont été établis est plus grande ; mais on a aussi plus de chance de faire des erreurs car les bases de données sont sont plus grandes et demandent donc un soin particulier dans leur analyse.

Dans un prochain article, nous traiterons de l’élan entrepreneurial autour des Big Data, et de la façon dont le monde politique s’approprie ces nouveaux outils pour mieux comprendre et influencer l’opinion publique.

Nous remercions Anne BITON, chercheure en bio-informatique à l’Université de Berkeley, pour son aide dans la rédaction de cet article.

Ariane Zambiras