Toutes les données formelles et informelles, quantitatives et qualitatives, explicites et implicites et mêmes symboliques, internes et
connexes et à adjacence congruente pour l’objet de la recherche, ayant
immédiatement ou médiatement rapport à la nature et aux objectifs de la
stratégie de recherche sur le sujet [ pensez entre autres données de sources
classiques ou usuelles, sur les données générées dans les réseaux sociaux tous
types et tailles confondus] sont, dans un premier temps, collectées, compilées
et classées selon plusieurs paramètres et protocoles.
Cette masse énorme de matière première de données stochastiquement ordonnées est prête maintenant pour recevoir le malaxage et ensuite la trituration, à l’image du process de fabrication de la farine dans une minoterie :
__ Matière première principale, le blé tendre prêt à l’entrée en process = Masse de données globalement ordonnées
__ Produit fini, la farine = information pertinente
__ Un sous-produit, le son=information secondaire
__ Les déchets « irrécupérables » : informations inutiles pour l’objet de la recherche
A partir de là, s’enclenche un procédé d’imbrication, d’intrication et de croisement/recoupement au moyen d’une stratégie de combinaison associant productivement :
__Algorithmique itérative auto-apprenante et des heuristiques d’intelligence artificielle
__Techniques, pratiques et procédés éprouvées de stratégies d’exploitation de données par le data mining,le data warehouse et le Big Data
__ L’usage de langages de programmation forts agiles et à noyau computationnel puissant permettant la haute simulation, comme Python, ruby, R, etc. et des systèmes de gestion de bases de données compatibles Big data.
Et la finalité de tout celà, c’est pour en en extraire le jus, c’est-à-dire des informations solides autant pertinentes que perspicaces sur le sujet de recherche.
Faîtes alors un benchmarking entre les pratiques les plus up to date d’un système de curiosité maladive et de voyeurisme d’un facteur (ou groupe de facteurs) mégère indélicat d’un côté, et le système de traitement de données du groupement GAFA décrit plus haut, quant à l’importance des informations tirées des données brutes de chacun des 2 systèmes.
Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page
Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.
Agoravox utilise les technologies du logiciel libre : SPIP, Apache, Ubuntu, PHP, MySQL, CKEditor.
Site hébergé par la Fondation Agoravox
A propos / Contact / Mentions légales / Cookies et données personnelles / Charte de modération