Aller au contenu

Les WEBBOT . Un programme informatique qui prédit l' avenir.


BM7

Messages recommandés

MembreR, 59ans Posté(e)
BM7 MembreR 5 389 messages
Baby Forumeur‚ 59ans‚
Posté(e)

http://www.dailymotion.com/video/x8bunh_pr...vrier-2009_news

A l' origine le WEBBOT étaient un programme informatique destiné à scanner les valeurs des cours

de la bourse . Mais avec le temps , les webbots vont se connecter sur l' inconscient collectif de

la planète . Et par analyse , l' enregistrement des pics émotionnelles correspondra à un évenement

qui se manifestera dans le futur .

Les webbot avaient prédit la crise .

Lien à poster
Partager sur d’autres sites

Annonces
Maintenant
MembreR, 59ans Posté(e)
BM7 MembreR 5 389 messages
Baby Forumeur‚ 59ans‚
Posté(e)

L'ANALYSE DE NEOTROUVE

webot.gifIl existe actuellement 2 projets différents pour analyser la fluctuation de l'émotion globale de l'humanité à l'aide d'ordinateurs.

- le ¿Global Consciousness Project¿ qui tire des conclusions en fonction de l'analyse des flux de nombres aléatoires

-le projet WebBot qui scanne la ¿conscience¿ (ou ¿l'inconscient collectif¿) de l'humanité sur le Web.

A l'origine projet WEB BOT, qui a été lancé pour prédire les cours de la bourse, à fait parlé de lui. Les données recueillies auprès des WebBot ont été utilisées à l'origine sur les marchés financiers où la cupidité et la peur des masses est appelé à conduire la volatilité des prix. Le principe du projet WEB BOT est de lancer un tas de « robots » passant le web au peigne fin. Les concepteurs ont fait le paris suivant : En faisant un balayage systématique du web, ils comptent obtenir un résumé de l'inconscient collectif, et par la même occasion, une vision de l'avenir.

Cet outil est censé pouvoir de prévoir l'avenir sur le Web en se fondant sur les habitudes de navigation concernant les informations. Le WebBot conceptualise un futur modèle de comportement sur la base des nouvelles récentes et psychologique des requêtes des masses. cela peut pour certains ressembler être un type de l'IA (intelligence artificielle). Les WebBots ont prédit certains événements avec un niveau de précision qui méritent un examen sérieux.

Ils ont déjà fait leurs preuves en août 2004, où ils ont prédit un grand tremblement de terre accompagné de vagues dévastatrice qui ferait 300 000 morts. Le tsunami à frappé en décembre 2004. La coupure de courant général sur la cote ouest des états-Unis en 2003, les ravages de l'ouragan « Katrina » en 2005. Plus étonnant encore, en juin 2001, ils ont prédit que dans les 60 à 90 jours suivant, se produirait un événement qui allait changer la vie des Américains. En Septembre, deux avions frappent les deux tours jumelles du World Trade Center. Pour l'avenir, les Web bots nous prévoient une guerre nucléaire de courte portée courant 2008-2009 ¿

Comment fonctionne cette machine ? Le ¿Webbot' est une des techniques pour faire du ¿Web Scraping¿ (il y en a d'autres). En gros, c'est un programme qui fait de l'extraction de contenu en visitant les sites Web. II fonctionne un peu comme un robot de moteur de recherche et va fouiller dans les groupes de discussion, sites personnels et ceci en plusieurs langues¿

Le WebBot se concentre sur certains mots et à partir de ce point central, il met se mot en corrélation avec l'information universelle afin de quantifier ce mot par rapport à d'autres mots. Si la machine ne fait que se programmer elle-même, d'après les informations sur le Web alors comment ces décisions peuvent prendre effet effet la société car comme nous le savons l'Internet est remli d'erreur.

Peut-être que dans un monde futur Internet ne sera plus un domaine public, ou peut-être le domaine public ne seront pas disponibles à une machine qui est capable de programmer lui-même.

Comment de fait devrait être l'information pour le robot pour faire une saine des décisions sans avoir une saine programmeur en charge. Il a ses moments de brillance, mais en fin de compte, il est déjà corrompu avec moins de données précises.

Pour ceux que ça intéresse sachez que le développement des droits à la technologie du Web Bot a été vendu à une société a été vendu à une société du nom de EbrainSpeed¿

Les données recueillies à l'occasion approchent les 100 Go la taille des échantillons et nous pourrions ont utilisé des téraoctets. Les données recueillies a ensuite été filtrée, l'utilisation d'au moins 7 couches de traitement linguistique en langage Prolog. (le langage de l'intelligence artificielle)

Les données recueillies sont ensuite filtrées et ramené à des numéros et puis en résulte une série de carte de dispersion des parcelles sur de multiples couches IntelliCAD puis on analyse sur une période de temps donnée, le diagramme de dispersion des points et la tendance de ces derniers à se structurer en zones très concentrées. Chaque point sur le diagramme de dispersion peut représenter plusieurs centaine de mots.

Pour définir un sens à cette analyse, des mots ou groupes de mots doivent être réduits à leur essence. Le processus est comme une recherche du ¿plus petit commun dénominateur¿ entre les groupes de mots.

Lien à poster
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.

×