Facebook deviendrait-il un Deep Web ?

Bien le bonjour, amis de ces sombres réseaux.

Je partage aujourd’hui une analyse que j’ai fait en rapport avec la notion de deep web qui m’a traversé l’esprit récemment.

Avant tout de chose, pour les quelques néophytes qui ne comprennent pas le terme « deep web« , le deep web désigne des informations non référencées et des zones de l’internet peu référencé et par extension, difficilement référençable.

Ce topic fait écho à un très plaisant topic de Zangdar dont l’absence me peine, le deep web, plus en profondeur. Ce topic s’inscrit dans les réflexions sur le deep web, le « dark web » et l’internet (inter-network, de son nom complet).

Donc, pour parler de Facebook, pendant longtemps, ce réseau social avait pour but de proposer un moyen simple pour tout le monde de se retrouver et se contacter (face – book, livre de visage, expression assez explicite sur le but de ce site).

Son business model était la publicité ainsi que l’analyse marketing du client, il fallait donc garantir que les gens qui vont sur Facebook y restent le plus longtemps possible, tout en faisant en sorte que la plateforme soit le plus rentable possible (donc économique et efficace).

Pour faire rester au maximum les gens, Facebook a donc diversifié son activité, passé de simple annuaire à système de messagerie (Messenger), de partage d’image (Instagram), de gestion de groupe, de structures, organisation événementielle, plateforme de mini-jeu, et même plateforme de vente, récemment.

Mais tout cela à un coût. La puissance de calcul, l’espace de stockage, tout cela coûte, et cela peut augmenter très vite suivant les tendances (je vous laisse imaginer les dégâts pour Facebook lors de la coupe du monde…).

Il a donc fallu pour Facebook effectuer des économies afin qu’éviter de se retrouver surchargé de donnée si jamais tout le monde partageait massivement des infos sur pleins de sujets.

Et une de ses optimisations concernant mon sujet, le Deep Web, est l’optimisation de référencement.

En effet, même si à la base, retrouver une info sur Facebook peut sembler facile, entre les pages restreintes, la restriction sur les publications des utilisateurs, les groupes restreints, mais aussi la restriction sur l’ancienneté des messages (que Facebook nomme « the temporal archiving optimization »), vous avez déjà sur Facebook une vision plus réduite de ce que vous pouvez voir.

Mais si on ajoute à cela le fait que Facebook va optimiser votre flux d’actualité pour n’afficher que ce qu’il juge le plus « pertinent », la vision se réduit encore plus.

(une source : https://www.francoischarron.com/facebook-controle-votre-fil-dactualite-comment-reprendre-les-commandes/-/aKuMuXJwAg/ )

Mais ce n’est pas tout, Facebook a récemment quasiment supprimé l’API graph search qui permettait de rechercher en RESTfull dans Facebook sur différentes applications de donnée (messenger, facebook, mini-games, page, etc…).

Cela signifie qu’il n’est plus possible d’extraire proprement de la donnée de Facebook avec une garantie d’intégrité (certains me diront que c’était déjà discutable avant…).

Enfin, le système de recherche de la barre de recherche de Facebook a subi le même traitement, si vous recherchez des pages, des personnes, des flux, vous n’aurez comme résultat que le plus pertinent pour vous la plupart du temps, et même chose pour vos amis.

En conclusion, et cela est uniquement mon avis sur la question.

Dans ces conditions, en partant du principe que la masse de donnée sur Facebook doit être immense, sachant qu’au niveau des pages, des utilisateurs et des autres applications, les bots ont pullulé et pullulent toujours, multipliant ainsi la donnée non pertinente et massive, je pense qu’on peut parler clairement de deep web.

Et pour compléter ma vision qu’aurais le deep web de Facebook, je vous propose de vous projeter un peu dans le futur de Facebook.

Plus tard, dans 20 ans ou 40 ans, des personnes étant nées et ayant passés en publications une grande partie de leur vie sur Facebook mourreront. Leurs comptes seront clôturés et leurs données seront moins accessibles encore.

Mais comment feront donc les archéologues du futur ? Auront-ils des accès spéciaux aux datacenter de Facebook ? Faudra-il un tampon de la NSA pour devenir archéologue Facebook ?

Dans le même genre, caché au milieu de publications anodines d’un bot, sera-il possible de trouver une perle de manifeste ? Un témoignage de temps oubliés ? Des gens mystérieux ? Des situations intrigantes ?

Pour compléter avec une petite analyse bonus, ce genre de théorie sur Facebook pourrait-elle s’appliquer à d’autres GAFAM ?

Je ne pense pas, pour prendre dans l’ordre, Google référence seulement, et son cache est limité dans le temps, et il est à l’inverse d’un deep web, un référenceur. Amazon est une plateforme de vente, je doute qu’on puisse y voir se former un réel deep web.

Apple est un vendeur de système et de logiciel, je ne vois pas de réelle donnée partagée sur l’internet stockés chez eux, leur inclinaison au système fermé les met hors de portée de réels deep web actuellement.

Microsoft est dans la même veine, bien que microsoft.com soit une véritable mine d’or de donnée cachés et peu référencés, un réel deep web à en l’état peu de chance de se développer chez eux.

Ce texte sur Facebook n’est pas de moi. Il provient d’un topic sur un forum connu du Dark net Français. Il était signé par un pseudo que je ne nommerai pas. Je poursuis ma « réhabilitation » du Dark Web Français dans laquelle on trouve de nombreuses réflexions pertinentes. Cet internet obscur n’est pas qu’un refuge de bandits mais bien un lieu où l’anonymat est mis sur un piédestal. Cet anonymat n’est pas encore dans mes gènes mais j’y travaille…