Projet "web bot"


Ce type de logiciel, dont la technologie est similaire à celle des « spiders », utilisés par les moteurs de recherche pour indexer les pages Web, a été initialement développé dans les années 1990 pour prévoir les mouvements des marchés boursiers.

Les robots naviguent en explorant les pages web dignes d’intérêt, indexant les mots clés et examinant le texte qui les entoure. La théorie sous-jacente est que cela donne un aperçu de la «sagesse des foules», en analysant les pensées de milliers de personnes.

Cependant, la technologie a ensuite été affectée à un autre usage, plus controversé, certains disent même absurde, la prédiction de l’avenir.

Cette étude des «bavardages sur Internet» est censée délivrer des avertissements avant des attentats terroristes par exemple, et ses promoteurs affirment qu’il l’a fait avec succès avant le 11 septembre 2001. Georges Ure, l’un des deux hommes derrière le projet, affirme que son système avait prédit un «un événement capable de changer le monde» dans les 60 à 90 jours qui suivrait juin 2001. »

Malgré l’imprécision de cette prédiction, beaucoup pensent qu’elle est authentique. Aujourd’hui, ses créateurs prétendent que cette technologie peut prévoir des catastrophes naturelles, et qu’elle a anticipé le séisme qui a déclenché le tsunami de 2004, ainsi que l’ouragan Katrina et la dévastation qui a suivi.

Sa plus récente et troublante prévision est que le 21 décembre 2012 indique la fin du monde, éventuellement à cause d’un renversement « polaire », c’est-à-dire, lorsque la polarité du champ magnétique terrestre est renversée. Les adeptes de cette prophétie prétendent que, l’apocalypse de 2012 est prévue par le calendrier maya antique, le Livre des Révélations, et le texte chinois I Ching.

Des sceptiques ont fait remarquer plusieurs défauts majeurs dans la théorie. Premièrement, internet pourrait éventuellement révéler des connaissances de groupe sur le marché des actions ou, pourquoi pas, des attaques terroristes, car ces événements sont d’origine humaine. Mais, disent les critiques, il ne serait pas plus capable de prédire une catastrophe naturelle que ne le ferait une recherche sur Google.

Deuxièmement, les prévisions sont assez vagues pour être dénuée de sens, et elles permettent aux convaincus de trouver des faits après coup pour valider les prédictions : un blogueur de dailycommonsense.com les compare à des quatrains de Nostradamus. Ils considèrent cependant la prévision du 11 septembre comme un cas d’espèce.

Troisièmement, ces prophéties deviennent auto-confusantes. «Plus les gens publient sur 2012 et la fin du monde», dit le même blogueur, » plus les bots obtiennent des données pointant sur 2012. »

Aucun commentaire:

Related Posts Plugin for WordPress, Blogger...

Rechercher