Le Big Data : un nouvel horizon ?

La tecnologia de big data revolucionara la seguridad de la informacion, par Infocux Technologies (Flickr, CC)

Big Data, ou volumes massifs de données. Nous utilisons tous ce terme mais j’ai l’impression que nous ne savons pas toujours clairement à quoi ça correspond. Le Big Data est un ensemble de données qui provient de partout : de messages sur les médias sociaux, d’achats en ligne, de signaux GPS de téléphones mobiles, etc. Cet amoncellement d’informations est-il en train de changer notre manière d'interagir avec notre environnement ? Quel impact a-t-il sur notre vie et notre façon de penser le monde ?



Le premier exemple qui peut illustrer ce que représente le
Big Data provient du professeur de Tokyo, Shigeomi Koshimizu. Il a décidé de mesurer la façon dont nous posons nos postérieurs sur un siège de voiture. Pour cela, il a identifié 360 points différents qu’il mesure sur une échelle de 1 à 256. Le résultat est tel qu’il peut dire avec 98% de succès si la personne qui s’assied est bien celle qui est sensée s’asseoir. Et, la comparaison avec des données sur les accidents de voiture devrait lui permettre de repérer quand quelqu’un s’endort, ce qui pourrait déclencher une alarme et réduire les accidents.

Ainsi, on peut mesurer des choses surprenantes et en tirer des informations utiles.

Nous passons ainsi de l’accent mis sur la digitalisation à l’accent mis sur la datafication.


Le Big Data, ça sert à quoi ?


Pour répondre à cette question, je m’appuie sur un livre et un article de Kenneth Cukier et Viktor Mayer-Schoenberger, Big Data: A Revolution That Will Transform How We Live, Work, and Think.

Le Big Data commence avec le fait qu’il y a beaucoup plus d’informations accessibles que dans le passé et qu’on s’en sert de façons nouvelles. L’idée est que, quand nous disposons de quantités considérables d’informations, nous pouvons apprendre des choses que nous ne pouvions pas comprendre avec moins de données. En fait, tout change quand au lieu d’avoir des milliers ou des millions de « points de données », on a accès à des milliards.


Un des exemples les plus connus est celui du service de traduction de Google qui en comparant des milliards de pages de textes entre deux langues obtient une traduction supérieure à ce que permet l’intelligence artificielle.


Autre exemple, en mettant en parallèle les questions posées sur son moteur de recherche et les épidémies de grippe aux Etats-Unis, sans se préoccuper du contexte dans lequel elles sont posées, Google a montré qu’il peut prévoir de telles épidémies. Quand les personnes commencent à se renseigner sur les maux de tête et les nés qui coulent c’est que la maladie approche.
Finalement, ce système prédictif est supérieur à celui des institutions qui sont obligées d’attendre que les gens viennent consulter le médecin pour savoir qu’il se passe quelque chose.


Dans cette explosion de données, comment choisir ?


Les statistiques traditionnelles se voulaient un travail intelligent sur une petite quantité de données. Selon l’article cité ci-dessus, paru dans Foreign Affairs, maintenant, on prend tout.
Deuxièmement, au lieu de chercher à choisir avec précision les données signifiantes, on travaille volontiers avec des données en désordre ou qui apparemment (comme la taille et le mouvement de nos postérieurs) mais qui permettent d’arriver à de très grandes quantités de données.

Enfin, et c’est là que nous devons apprendre à penser différemment : il faut renoncer à toujours comprendre la cause des choses et accepter qu’on peut faire des merveilles en comprenant leurs relations.

Par exemple, l’entreprise de messageries
UPS a mis des capteurs en certains points de ses véhicules dont elle sait que leur échauffement provoque souvent une panne. UPS n’a pas besoin de savoir pourquoi il suffit de connaître la fréquence de la corrélation pour changer la pièce au garage plutôt que dans la rue. Il en va de même avec la machine humaine. Les Canadiens ont mis au point un système qui mesure les signes vitaux des bébés prématurés et recueille plus de mille données par seconde. Ce qui permet d’agir avant de comprendre pourquoi le risque pourrait se réaliser.

Le Big Data, un phénomène inquiétant ?

Le Big Data est en partie inquiétant. Prenons deux exemples:

  • Dans la version positive, la ville de New York est capable de déterminer grâce au Big Data les logements où il y a les plus gros risques d’incendies meurtriers.

  • Dans la version ambiguë, il y a le fait que les compagnies d’assurances peuvent savoir exactement les risques que nous représentons en fonction de notre façon de conduire.

  • Dans la version inquiétante, il y a le fait que le gouvernement britannique est maintenant capable de prévoir une manifestation violente en comparant les données des manifestations passées et celles qu’il obtient en temps réel, et donc d’enrayer la protestation avant qu’elle ne s’exprime.


Je crois aussi que nous pouvons obtenir plus de transparence en exigeant l’open data – le fait que ces données soient accessibles à tous - et en dénonçant les abus qui sont faits.

Une fois de plus, le Big Data n’est pas en soi bon ou mauvais. C’est une nouvelle phase dans le développement technologique. Nous devons comprendre que les problèmes d’hier ne se posent plus de la même façon et apprendre à lutter sur ce nouveau terrain pour en limiter les abus, contre la vie privée par exemple. Et en développer les côtés positifs, dans le domaine de la santé, par exemple.

 

 

Envoyez-moi un e-mail lorsque des commentaires sont laissés –

Francis Pisani
@francispisani
Perspectives on innovation, creative cities, and smart citizens. Globe wanderer. Distributed self. Never here. Rhizomantic.

Vous devez être membre de Atelier des médias pour ajouter des commentaires !

Join Atelier des médias

Récemment sur l'atelier