Prophète des temps modernes, le logiciel américain Webbot a été créé en 1997.
Guillaume Thuillet, expert et traducteur français des rapports webbot précise que « ce projet informatique fonctionne comme un robot de moteur de recherche et va fouiller de façon répétitive dans les groupes de discussion, les sites personnels en plusieurs langues.
Il se concentre sur certains mots-clés, les compile, établit des courbes et les interprète. »
Initialement programmé pour prévoir les cours de la bourse, le Webbot établit aujourd'hui de véritables prévisions à l'échelon mondial. Le Webbot est un outil de tendances qui étudie/collecte les peurs/préoccupations principales des habitants de la planète.
Voici en exclusivité, les points principaux (traduction effectuée par Guillaume Thuillet) du rapport webbot TSTC 0-7, sorti le 15 août 2010. Ce rapport couvre la période de septembre 2010 à 2012. La vidéo sera disponible sur Vternet TV fin août.
Points principaux du rapport webbot TSTC 0-7
1- Puissants contents
2- Du 11 novembre 2010 à février 2011
3- A partir de mars 2011 : peur
4- Tipping point : 8 novembre 2010 / 11 novembre 2010
5- Manque de nourriture
6- Refuge
7- Hiver 2011/2012 : long
8- Déplacements de populations
9- Problème en Italie
10- Taxation
11- Erreur israélienne
12- Marchés / décembre 2010
13- or/argent
14- Nouvelle crise
15- Chaleur puis neige
16- Maladie du soleil
17- Énergies nouvelles
Note : "Points principaux" signifie que ce sont les thèmes majeurs du rapport. Selon l'interprétation du programmeur Webbot, ce sont les thèmes qui vont émerger (et donc à regarder plus particulièrement) au cours des prochains mois.Le Webbot confirme malheureusement la prophétie du 21 décembre 2012 !
Des spécialistes du complot sur internet, qui prétendaient qu’un programme robot avait prédit avec précision les attentats du 11 septembre ainsi que le tsunami de 2004, déclarent qu’il annonce aujourd’hui qu’un cataclysme va dévaster la planète le 21 décembre 2012.
Ce type de logiciel, dont la technologie est similaire à celle des « spiders », utilisés par les moteurs de recherche pour indexer les pages Web, a été initialement développé dans les années 1990 pour prévoir les mouvements des marchés boursiers.
Les robots naviguent en explorant les pages web dignes d’intérêt, indexant les mots clés et examinant le texte qui les entoure. La théorie sous-jacente est que cela donne un aperçu de la «sagesse des foules», en analysant les pensées de milliers de personnes.
Cependant, la technologie a ensuite été affectée à un autre usage, plus controversé, certains disent même absurde, la prédiction de l’avenir.
Cette étude des «bavardages sur Internet» est censée délivrer des avertissements avant des attentats terroristes par exemple, et ses promoteurs affirment qu’il l’a fait avec succès avant le 11 septembre 2001. Georges Ure, l’un des deux hommes derrière le projet, affirme que son système avait prédit un «un événement capable de changer le monde» dans les 60 à 90 jours qui suivrait juin 2001. »
Malgré l’imprécision de cette prédiction, beaucoup pensent qu’elle est authentique. Aujourd’hui, ses créateurs prétendent que cette technologie peut prévoir des catastrophes naturelles, et qu’elle a anticipé le séisme qui a déclenché le tsunami de 2004, ainsi que l’ouragan Katrina et la dévastation qui a suivi.
Sa plus récente et troublante prévision est que le 21 décembre 2012 indique la fin du monde, éventuellement à cause d’un renversement « polaire », c’est-à-dire, lorsque la polarité du champ magnétique terrestre est renversée. Les adeptes de cette prophétie prétendent que, l’apocalypse de 2012 est prévue par le calendrier maya antique, le Livre des Révélations, et le texte chinois I Ching.
Des sceptiques ont fait remarquer plusieurs défauts majeurs dans la théorie. Premièrement, internet pourrait éventuellement révéler des connaissances de groupe sur le marché des actions ou, pourquoi pas, des attaques terroristes, car ces événements sont d’origine humaine. Mais, disent les critiques, il ne serait pas plus capable de prédire une catastrophe naturelle que ne le ferait une recherche sur Google.
Deuxièmement, les prévisions sont assez vagues pour être dénuée de sens, et elles permettent aux convaincus de trouver des faits après coup pour valider les prédictions : un blogueur de dailycommonsense.com les compare à des quatrains de Nostradamus. Ils considèrent cependant la prévision du 11 septembre comme un cas d’espèce.
Troisièmement, ces prophéties deviennent auto-confusantes. «Plus les gens publient sur 2012 et la fin du monde», dit le même blogueur, » plus les bots obtiennent des données pointant sur 2012. »
internet est une machine à énergie dirigée ,ce sont vos pensée qui créent les évenement futurs ,alors dirigez vos pensées vers des causes dignes de ce nom et arretons, d'avoir peur la vie et la mort n'aura aucun sens tant que vous ne comprendrez pas la raison de votre existence .