Avec Internet, chacun d'entre nous génère toute une série d'informations, et nous pouvons nous échanger ces informations par l'intermédiaire des réseaux sociaux. Chaque internaute peut avoir sa chaîne YouTube, commenter le blog de sa grand-mère, mesurer ses performances sportives, les enregistrer sur un site web. Ensuite, on pourra se les échanger, toutes ces informations, avec nos amis via Facebook, ou Twitter ou Instagram. Et c'est là la source du fameux Big Data, une avalanche de données qui révolutionne l'économie et la société. Le problème avec le Big Data, c'est que la plupart d'entre nous ne savons pas très bien comment approcher cette question, et c'est là que la pensée complexe d'Edgar Morin peut nous aider. Edgar Morin définit la complexité, et je cite, au sens étymologique, complexus, qui signifie ce qui est tissé ensemble dans un enchevêtrement d’entrelacement, plexus. C'est donc l'outil conceptuel idéal. Pour analyser un monde, les individus interagissent pour analyser un enchevêtrement de connexions comme l'est Internet. Internet, et en particulier le Web 2.0 a été fondé sur un principe d'autoproduction et auto-organisation. Sur Internet, chacun peut créer des contenus. C'est ce qu'on appelle en anglais le user generated content. On peut le voir sur Wikipedia, Instagram ou Reddit. Et on peut ensuite se l'échanger sur des sites administrés par les utilisateurs eux-mêmes comme Facebook, Twitter ou Reddit encore une fois. C'est ce qu'Edgar Morin appelle le principe d'auto éco organisation. Un système où la création et la destruction se répondent, et où le principe d'émergence est primordial. Qu'est-ce que l'émergence veut dire? Que les contenus les plus populaires émergent naturellement, plutôt que par l'action centralisée d'un directeur de chaînes, ou de la volonté d'un gouvernement par exemple. Regardez le cas du clip de PSY ou de certains chanteurs de The Voice ou de Britain's Got Talent qui deviennent des stars du jour au lendemain, et cela grâce au nombre de vues des internautes, et non pas grâce à la volonté d'un producteur de musique comme c'était encore le cas il y a quelques années. Internet doit donc être analysé dans son ensemble. Comme le dit très bien Edgar Morin, la complexité logique de l’unitas multiplex nous demande de ne pas dissoudre le multiple dans l’un, ni l’un dans le multiple. En clair, il ne faut pas séparer le tout, c'est-à-dire le réseau, et la partie qui est l'internaute. C'est ce qu'il faut directement dire. C'est que les réseaux sociaux d'objets sont en fait un système où il est impossible de comprendre les parties sans comprendre le tout. On ne comprend pas l'internaute si on ne comprend pas Internet. Il n'est pas possible de comprendre Internet sans comprendre les comportements individuels des internautes. Et en pratique, ces comportements sont très différents d'un individu à l'autre. Et à nouveau, en pratique, c'est bien le problème. C'est ce qui rend ces phénomènes si difficiles à analyser. Puisqu'il y a deux contraintes majeures. La première contrainte est une contrainte technologique. Aucun ordinateur au monde n'est pour le moment capable de traiter l'entièreté de l'information qui est générée chaque jour. Pour vous donner un exemple, d'après le CNRS, Twitter et Facebook généreraient à eux-seuls, chaque jour, 17 teraoctets. Il faut donc des centaines et des centaines de serveurs pour stocker toutes ces données. Si en plus en sait que bientôt, chaque appareil électroménager, téléphone, compteur biométrique, instrument de mesure scientifique, bref, quand n'importe quel objet sera connecté ces objets généreront chaque seconde des données. Il sera alors impensable de tout analyser puisque le volume sera beaucoup trop grand. Et deuxièmement, on ne peut pas tout réduire à quelques mesures statistiques agrégées. Les méthodes statistiques classiques sont basées sur l'échantillonnage d'une population. Et dans ce contexte, ce n'est en fait pas approprié à la compréhension d'Internet. Échantillonner un réseau est très compliqué, puisqu'il faudrait pouvoir échantillonner correctement les individus, mais aussi les connexions entre ces individus. Et le caractère complexe des comportements sur Internet rend quasi-impossible d'assurer la représentativité des échantillons qui sont censés représenter les comportements étudiés. Sur Internet, chaque internaute peut en effet exprimer son identité multiple. Par exemple, quelqu'un peut aimer le hard rock et la musique classique, il peut lire des journaux aux tendances politiques opposées. Un homme peut à la fois être un bon père de famille, mais aussi avoir une personnalité tout autre sur le Web. Dans ce cas, on voit bien qu'il sera très difficile de capturer correctement, avec seulement quelques mesures statistiques, la complexité du comportement individuel. Sur Internet, comme Edgar Morin le dit à propos des systèmes complexes, le principe d'identité est en fait complexe. Il comporte de l'hétérogénéité et de la pluralité dans l'unité. Je vais prendre un exemple très concret. Une entreprise qui fera du ciblage marketing comme beaucoup d'entreprises le font sur Internet. Imaginons par exemple que nous travaillons pour une compagnie aérienne, et que nous cherchons à comprendre le comportement de nos clients. Prenons le cas d'un client potentiel, jeune consultant dans un cabinet international. En tant que consultant, il voyage régulièrement en classe affaires entre l'Asie et la France. Et d'un autre côté, cette même personne est aussi père de deux enfants. Bon, il gagne bien sa vie, mais comme il est en début de carrière, il essaie de faire des économies. Donc, quand cette personne part en vacances avec sa famille, disons qu'il part à Barcelone en Espagne, il va faire bien attention à prendre un vol très bon marché. Et donc, quand nous allons nous poser la question de savoir qu'elles seraient les offres à lui faire, si on regarde le comportement moyen de cette personne, on va avoir un problème. En fait, on va réaliser qu'il n'y a pas de comportement moyen, mais en effet, deux comportements différents. La même personne, d'une part, utilise des solutions haut de gamme puisqu'il vole en classe affaires la semaine, et des solutions à bas prix puisqu'il part en vacances en classe économique. Par contre, si on va chercher des informations sur son réseau social, tout devient beaucoup plus clair, puisque nous allons voir sur son réseau familial, par exemple Facebook, c'est plutôt à Barcelone avec ses enfants. Et sur son réseau professionnel, disons LinkedIn, qu'il vient de signer un gros contrat à Shanghai. Que montre cet exemple? Que c'est l'individu dans son réseau qui fait du sens, et non l'individu isolé. C'est un exemple paradigmatique de personnalité multiple qui est seulement compris grâce à l'analyse du système dans son ensemble. En effet, comme le dit très bien Edgar Morin, il faut en finir avec la scission paradigmatique entre le sujet et l'objet. Et ce qu'il veut dire, c'est que la causalité est en fait en boucle, et pas quelque chose où la volonté d'un sujet s'exprime directement sur l'objet, mais que c'est plutôt une dynamique d'action-réaction. Je vais prendre un autre exemple. Imaginons que nous soyons dans une équipe d'analystes qui travaillerait à la tarification d'une entreprise fabriquant des tablettes tactiles. Si notre société annonce le lancement d'une nouvelle version de tablette, nos clients qui pensaient peut-être acheter notre produit dans un futur proche vont certainement attendre la sortie de la nouvelle version pour déterminer leurs choix. On va donc s'attendre à ce que les ventes ne soient pas très bonnes à court terme. Nous allons anticiper une baisse des ventes, et pour contrer cette baisse, les entreprises décident souvent de diminuer les prix de l'ancienne version. Mais en pratique, malgré cette baisse, puisque les consommateurs vont attendre de voir la nouvelle version pour se décider, on voit souvent que les ventes baissent quand même. C'est quelque chose de bien connu en économétrie. C'est ce qu'on appelle la critique de Lucas, qui est un professeur qui a d'ailleurs reçu un prix Nobel d'économie pour ses recherches sur ces sujets. Et donc, si on ne tient pas en compte cette causalité et cette boucle, cette action-réaction, on peut arriver à des corrélations contre-intuitives. Dans le cas de la tablette tactile, on voit par exemple apparaître une corrélation positive entre le prix et la demande. On baisse les prix, mais comme la version sera bientôt obsolète, elle se vendra quand même moins bien. Si j'utilise cette corrélation sans réfléchir, je pourrai en conclure que plus un produit est cher, plus il est attractif, ce qui est évidemment faux. On observe une boucle dialogique. Nos clients ont des attentes à nos actions, et agissent en conséquence. À notre tour, en tant qu'analystes, nous anticipons leurs comportements, et nous agissons en conséquence. En réalité, on le voit, il n'y a pas vraiment de sujet et d'objet, et croire l'inverse, peut nous amener à des conclusions qui sont fausses du fait de cette causalité en boucle. C'est le principe d'écologie de l'action d'Edgar Morin. Je cite à nouveau, quand un acte d'individu ou de groupe entre dans un complexe d'inter- rétroactions qui le font dériver, dévier, et parfois inverser son sens. Une fois que nous avons en tête tous ces principes, nous pouvons donc adapter le paradigme de la complexité au Big Data. En conclusion de tout ce que j'ai dit, les phénomènes liés au Big Data sont complexes, et ne peuvent pas être réduits à quelques principes simples au risque de passer à côté de la réalité pratique des phénomènes observés. En tant qu'analyste, économiste, ou analyste spécialisé dans la data, ce qu'on appelle les data-scientists, la pensée complexe nous aide à avoir la bonne approche pour mieux comprendre ces questions. Il faut comprendre que plutôt que de chercher à contourner cette complexité comme un obstacle, ou même à la réduire à quelques principes simplistes et donc erronés. Il faut au contraire l'accepter comme une richesse, et l'embrasser dans son ensemble. Du point de vue méthodologique, de nombreuses techniques nous permettent en effet d'appréhender cette complexité. Premièrement, les techniques d'analyse de réseaux permettent d'identifier les rôles des nœuds dans un réseau, c'est-à-dire les individus, non en tant qu'éléments isolés, mais en tant qu'éléments constituants le réseau. C'est donc le paradigme de la complexité mis en action. La partie n'est plus dissociée du tout. Deuxièmement, les modèles hiérarchiques bayésiens permettent de traiter le caractère poly-identitaire des individus, ce qu'Edgar Morin appelle l'unitas multiplex. Puisque grâce à ces techniques statistiques, nous pouvons tenir compte des variations au sein même du comportement individuel. Et finalement, trois, les modèles économiques récents, par exemple, les modèles structurels tiennent compte de l'anticipation des acteurs et de leur interconnectivité. Ils répondent donc à la nécessité de prendre en compte les boucles dialogiques que l'on retrouve dans les systèmes complexes. Du point de vue de l'approche elle-même, Edgar Morin nous montre aussi l'importance d'aborder ces problématiques dans une démarche multidisciplinaire. C'est bien pourquoi à l'ESSEC, nous pensons que la recherche et la formation à ce niveau doit faire collaborer des ingénieurs, des économistes, des psychologues, des sociologues, et en fait toute une série de compétences multiples et variées En définitive, il faut comprendre que ces questions ne doivent pas être analysées selon une seule discipline à la fois, mais en cherchant à obtenir une vision holistique de la situation.