Ma compréhension du big data

Le Big data signifie « mégadonnées »  en français et non « grosse datte» comme je le croyais. Vu le prix du kilo de dattes en ce moment, ça serait le fantasme de tout saharien détenteur de quelques palmiers
Bon, revenons à nos datas! Lorsque j’ai rencontré internet, il comptait déjà plus de 9 milliards de pages. Si ça ce n’est pas énorme, alors je crois souffrir d’un « complexe de gigantisme»…Enfin! Je ne sais pas, je dois peut-être consulter ?
Ok, mes complexes n’intéressent personnes !

Bien, continuons! En naviguant sur le web, toute personne produit des données ou datas. Ces données sont en fait les traces de vos activités sur internet. Certaines personnes en laissent de manière totalement volontaire via leur blog par exemple, ou lorsque vous notez un film en lui attribuant une ou plusieurs étoiles, etc.
Cependant, certaines personnes laissent des empreintes, à travers des cookies, souvent sans s’en rendre compte. Les cookies sont en réalité des sortes de mouchards qui viennent squatter votre ordinateur pour tracer vos activités afin d’en rendre compte à une autre personne ou une autre machine...les traîtres!
Mais bon! Les ordinateurs raffolent de ces biscuits (cookies).

Pour vous donner une petite idée du phénomène big data, sachez qu’en 2013, Twitter et Facebook généraient respectivement 7 et 10 téraoctets de données par jour ; dans cette même période l’humanité envoyait 183 milliards de mails chaque jour. Tandis que la quantité de données publiées dans le monde sur le net était de 29 000 Go (Gigaoctets) toutes les secondes. Ces chiffres sont aujourd’hui largement revus à la hausse, si en 2012 l’humanité produisait 2,8 zettaoctets de données par an, il est prévu que nous passerons à 40 zettaoctets en 2020, voire plus. Cette production de mégadonnées est aussi amplifiée par l’usage des smartphones, ces derniers seraient aujourd’hui 2,5 milliards à tâter nos mains ! Il faut aussi savoir que les plus grands producteurs de mégadonnées restent les installations technico-scientifiques, comme celles destinées aux prévisions météorologiques, ou encore les centres d’observation et d’écoute du cosmos.
Si vous ne savez pas ce qu'est un zettaoctet consultez cet article.

Mais sur quelle sorte de clé USB (Universal Serial Bus) sont stockées de telles quantités de données?

Ces données ne sont pas stockées dans des clés USB!
Elles le sont dans des data centers, qui sont d’énormes fermes de serveurs capables de stocker et de traiter beaucoup, mais alors vraiment beaucoup d’informations. C’est par exemple le cas d’Akamai Technologies, une entreprise spécialisée qui dispose de plus de 100 000 serveurs autour du globe.
Cependant, le big data pose un problème de fond : celui de la complexité des données qui le caractérisent, car la variété et le volume de ces dernières sort  largement du cadre classique. Les technologies traditionnelles ne peuvent donc plus pouvoir stocker, sonder, analyser et interpréter correctement cette nébuleuse d’information. Il a donc fallu que les grands acteurs du domaine développent de nouvelles technologies capables de traiter ces types de données, comme les BAO (Business Analytics & Optimization), mais aussi de les stocker grâce notamment au HPC (Higth Performance Computing), Super Calculateurs Hybrides en français.

Ce que j'ai compris du "big data"

Cette révolution du big data est incroyable. En fait, c’est comme si l’humanité se mettait d’un coup à déféquer si massivement et si fréquemment que les écolos, stupéfaits par cette nouvelle mode, vont se voir obligés de réviser tous leurs manuels traitant de la pollution environnementale, mais aussi repenser et inventer de nouvelles techniques de traitement des eaux usées face à l’inefficacité et aux limites que montrent les anciennes technologies utilisées. Grâce à cette manne de matières fécales, il sera entre autre possible de poser un profilage très précis en interrogeant cette énorme quantité de caca afin de savoir par exemple que tel ministre est agoraphobe, tel terroriste est fan des Télétubbies,etc... en marquant à la culotte les excréments et en analysant leurs compositions de fond en comble .
Bref ! Toute cette affaire commence à sentir très mauvais : il n'y a plus de vie privée, pour plus de sécurité(?).

Traiter autant de caca…je veux dire de data, ça en fait du boulot!

Oui et c’est là où Pôle emploi se transformera en une chorale de requiem pour chômeurs, puisque tout le monde n'est pas doué pour tripoter du caca…enfin, des datas!
Hihihi! Ceci me rappelle le jour ou Mr Ford vira K. Marx et F. Engels de son entreprise pour incompétence... Lol. Ces derniers mécontents, rétorquèrent : «Vous serrez tous prolétaires un jour! ». Pour eux, les ouvriers vendent leurs compétences sur un outil qu’ils ne possèdent pas et les bourgeois possèdent cet outil qu’ils n’utilisent pas. Donc la "prolétarisation" c’est travailler avec un système dont vous ignorez le fonctionnement, et ce, même si vous en êtes l’auteur. Que vous soyez ouvrier, cadre, ingénieur ou directeur, c’est le système lui-même qui détient désormais les connaissances qui permettent de produire un certain résultat.

En accumulant beaucoup de données (big data), celles-ci réagissent, souvent de manière surprenante, lorsqu’elles sont interrogées par des machines et des algorithmes grâce à la méthode du calcul intensif qui s’exprime en pétaflops (des millions de milliards d’opérations par secondes). Un (01) pétaflops (Pflops), est une grandeur bien supérieure au nombre de calculs réalisés par toute la population mondiale, si chaque individu effectuait une opération par seconde pendant 48 heures... Un nombre d’opérations qu’aucun être humain ne pourra jamais écrire sur un tableau. Sunway TaihuLight, un supercalculateur chinois, possède une puissance de calcul de 93 pétaflops.

Il n’y a aucun linguiste chez Google et pourtant leur service de traduction est capable de traduire, avec des résultats étonnants, dans plusieurs langues en fouillant des données et en les interprétants grâce à la puissance de son système « corrélationniste » sans que personnes ne soit en mesure de démontrer exactement comment.
Google n’a donc plus besoin de former de linguistes. Selon plusieurs études sérieuses, dans 20 ans, 50% des emplois dans le monde seront remplacés par des algorithmes. Les médecins, les juristes, les financiers, sont tous mis sur le carreau. À moins d’étudier le « data scientism » (la science des données) vous aussi serriez au chômage. Le big data représentera en 2020, 8% du PIB européen selon l’AFDEL (Association Française des Editeurs de Logiciels et Solutions Internet).

Vous êtes avertis!

Illustration Álex Quirós

M'envoyer un e-mail lorsque des personnes publient un commentaire –

Vous devez être membre de Atelier des médias pour ajouter des commentaires !

Join Atelier des médias

Commentaires

This reply was deleted.

Récemment sur l'atelier

Atelier des Médias - RFI via Facebook

💻 Raqqa vue par les jeunes Syriens en ligne : entretien avec Hala Kodmani, on vous parle aussi…

Atelier des Médias - RFI via Facebook

"Bien sûr, il serait illusoire de croire qu’avec 1,3 million de messages…

Atelier des Médias - RFI via Facebook

Découvrez avec les amis de Tous les internets / Alle Internetze le JT rappé dont…

Atelier des Médias - RFI via Facebook

De la question de l'empathie et du journalisme, en particulier concernant la question des…

Plus...