Toutes les données formelles et informelles, quantitatives et qualitatives, explicites et implicites et mêmes symboliques, internes et
connexes et à adjacence congruente pour l’objet de la recherche, ayant
immédiatement ou médiatement rapport à la nature et aux objectifs de la
stratégie de recherche sur le sujet [ pensez entre autres données de sources
classiques ou usuelles, sur les données générées dans les réseaux sociaux tous
types et tailles confondus] sont, dans un premier temps, collectées, compilées
et classées selon plusieurs paramètres et protocoles.
Cette masse énorme de matière
première de données stochastiquement ordonnées est prête maintenant pour
recevoir le malaxage et ensuite la trituration, à l’image du process de
fabrication de la farine dans une minoterie :
__ Matière première
principale, le blé tendre prêt à l’entrée en process = Masse de données globalement
ordonnées
__ Produit fini, la farine = information pertinente
__ Un sous-produit, le son=information
secondaire
__ Les déchets « irrécupérables » :
informations inutiles pour l’objet de la recherche
A partir de là, s’enclenche
un procédé d’imbrication, d’intrication et de croisement/recoupement au moyen d’une
stratégie de combinaison associant productivement :
__Algorithmique itérative
auto-apprenante et des heuristiques d’intelligence artificielle
__Techniques, pratiques et
procédés éprouvées de stratégies d’exploitation de données par le data mining,le
data warehouse et le Big Data
__ L’usage de langages de
programmation forts agiles et à noyau computationnel puissant permettant la
haute simulation, comme Python, ruby, R, etc. et des systèmes de gestion de
bases de données compatibles Big data.
Et la finalité de tout celà,
c’est pour en en extraire le jus, c’est-à-dire des informations solides autant pertinentes
que perspicaces sur le sujet de recherche.
Et si ces informations-output
concernent comme objet de recherche des personnes, elles peuvent leur renvoyer
une image d’elles-mêmes qu’elles ne connaissaient pas et ne soupçonnaient même
pas son existence.
Faîtes alors un benchmarking
entre les pratiques les plus up to date d’un système de curiosité maladive et
de voyeurisme d’un facteur (ou groupe de facteurs) mégère indélicat d’un côté,
et le système de traitement de données du groupement GAFA décrit plus haut,
quant à l’importance des informations tirées des données brutes de chacun des 2
systèmes.