Aller au contenu

Messages recommandés

Membre, Posté(e)
kamenskaya Membre 77 messages
Baby Forumeur‚
Posté(e)

De plus en plus, les chercheurs en sciences (toutes disciplines) font appel aux particuliers, pour leur confier des tâches de traitement numériques, qui leur permettent de gagner du temps dans leurs travaux.Pour ce faire, il suffit de télécharger le logiciel BOINC va

vous permettre de choisir le type de recherche a laquelle vous souhaiter donner du temps processeur.Une fois le choix, le logiciel va télécharger une serie de taches en fonction de la puissance de votre machine, et engager le traitement.Cela se passe pendant les periodes d'inactivités de l'ordi, et parfois quand même vous travaillez dessus (mais c'est completement configurable), en terme de vitesse de connexion je n'ai pas senti un seul ralentissement sur le transfert des traitements, et en situation de traitement pur, le processeur ne rame pas, les autres applis s'ouvrent normalement.Bref du beau boulot.Pour ceux que cela interessent ils trouveront ci-dessous les liens relatifs a ce type de partage de calcul:

http://boinc.berkeley.edu/

http://www.boinc-af.org/

http://fr.wikipedia.org/wiki/Liste_des_projets_BOINC

Bon on ne gagne rien a la sortie, mais on peut se dire que l'on a apporté sa petite pierre a un projet qui nous tient a coeur

Lien à poster
Partager sur d’autres sites

Annonces
Maintenant
Membre, Posté(e)
Rythme_circadien Membre 114 messages
Baby Forumeur‚
Posté(e)

S'ils simplifiaient les algorithmes, il n'y aurait pas besoin d'ordi super puissant.

Lien à poster
Partager sur d’autres sites

Membre, scientifique, Posté(e)
Répy Membre 24 416 messages
scientifique,
Posté(e)

------------------------

Non ce n'est pas forcément lié à la complexité des algorithmes !

par exemple les multiples combinaisons en génétique exigent des temps de calcul colossaux.

- Soit on prend un ordinateur super puissant mais ça coûte très cher et ces machines ne sont pas disponibles (météo, armée, espace...)

- soit on partage le travail en de nombreux ordinateurs ordinaires qui eux le font gratuitement !

Lien à poster
Partager sur d’autres sites

Membre, Marxiste tendance Groucho, 64ans Posté(e)
Alain75 Membre 27 401 messages
64ans‚ Marxiste tendance Groucho,
Posté(e)

j'ai ça dans mes économiseurs d'écran. Dans les années 2000 j'avais Seti@tHome en économiseur d'écran. De Berkeley aussi.

Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
Rythme_circadien Membre 114 messages
Baby Forumeur‚
Posté(e)

------------------------

Non ce n'est pas forcément lié à la complexité des algorithmes !

par exemple les multiples combinaisons en génétique exigent des temps de calcul colossaux.

- Soit on prend un ordinateur super puissant mais ça coûte très cher et ces machines ne sont pas disponibles (météo, armée, espace...)

- soit on partage le travail en de nombreux ordinateurs ordinaires qui eux le font gratuitement !

Ou alors on trouve des algorithmes plus géniaux :-)

Lien à poster
Partager sur d’autres sites

Membre, scientifique, Posté(e)
Répy Membre 24 416 messages
scientifique,
Posté(e)

Non ce n'est pas une question d'algorithme c'est une question de quantité d'information à traiter.

ex la météo : les plus gros calculateur prépare une carte en 2h et a à traiter des méga-téra d'octets.

Dès que la carte est éditée, l'ordinateur passe une heure à comparer les prévisions de sa carte précédente aux données réelles mesurées. l'écart permet de corriger l'algorithme dans le détail.

Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
kamenskaya Membre 77 messages
Baby Forumeur‚
Posté(e)

j'ai ça dans mes économiseurs d'écran. Dans les années 2000 j'avais Seti@tHome en économiseur d'écran. De Berkeley aussi.

cette solution

SETI j'en ai fait a l'époque il y'a vait un certain battage, finalement, j'ai laissé tombé, pas tres convaincu que dans notre galaxie, une civilisation de ce type existe, quoique statistiquement il n'y aucune raison que l'on soit carrement tout seul.Finalement j'ai trouvé des taches de calcul concernant la , myopathie,les traitement des données était hyper-lourd alors qu'a l'époque j'avais une bécane relativement puissante, il semble d'ailleurs a ce sujet, que l'AFM ait abandonné.....dommage, dommage.Du coup je me suis branché sur les recherches concernant les ondes gravitationnelles, c'est particulierement interessant, et les taches numeriques sont bien gérables . Mais Répy a raison

c'est pas lié aux algorithmes, mais la masse des données dépasse l'entendement

Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
DieRatte Membre 274 messages
Baby Forumeur‚
Posté(e)

J'aime bien ceux qui disent "ils ont qu'à faire de meilleurs algorithmes"

J'aimerai encore mieux les voir devant un ordi à coder.

Enfin, faire un code qui fait ce qu'on lui demande, c'est pas si compliqué que ça en a l'air. Si tu as assez de temps et de patience, avec les bonnes biblios, ça devient presque (presque, hein) simple. Après les phases de débuggages et de compatibilité un peu soûlantes, c'est bon, tout roule.

Après, en comparaison, prendre le programme de quelqu'un autre, et l'améliorer significativement c'est généralement impossible. Notamment parce que le niveau de perfection des programmes actuels font qu'ils ne sont souvent pas loin en puissance et en temps du meilleur algo possible pour le faire (je parle bien des plus poussés et des plus recherchés, hein)

Donc non, des "meilleurs algos" ça existe pas, et pour faire des calculs sur 1 million de données, ils faudra toujours au moins 1 millions de calculs. On a besoins de la puissance de vos ordis.

Lien à poster
Partager sur d’autres sites

Membre, 49ans Posté(e)
Frelser Membre 5 507 messages
Forumeur inspiré‚ 49ans‚
Posté(e)

Ou alors on trouve des algorithmes plus géniaux :-)

C'est une question de puissance de calcul. Un ordinateur travaille de façon linéaire, ou allez sur quatre coeurs etc. Quand tu travailles dessus, tu crois travailler en parallèle sur pleins de tâches, en fait il n'en est rien, le processeur travaille par priorité et en distribuant les tâches à tour de rôle d'où l'importance de la mémoire RAM (DDR). Or, quand on a des dizaines des centaines voire des milliers d'ordinateurs qui se distribuent le travail de calcul on dépasse parfois même la puissance des supercalculateurs.

Tianhe-2 atteint par exemple 33,86 PFLOPS, soit 1015 opérations à virgule flottante par seconde ! Mais les supercalculateurs sont très gourmands en énergie et limités en nombre et on se rivalise pour louer leur usage au prix fort. D'où l'intérêt de calcul partagé... Par exemple un pentium 4 atteint jusqu'à 14.4 GFlop/s, donc avec 10.000 processeur de cette puissance on arrive à 1,44 x 1013 FLOPS/s ! Avec le réseau web c'est une opportunité inespérée.

Lien à poster
Partager sur d’autres sites

Membre, 49ans Posté(e)
Frelser Membre 5 507 messages
Forumeur inspiré‚ 49ans‚
Posté(e)

J'aime bien ceux qui disent "ils ont qu'à faire de meilleurs algorithmes"

J'aimerai encore mieux les voir devant un ordi à coder.

Enfin, faire un code qui fait ce qu'on lui demande, c'est pas si compliqué que ça en a l'air. Si tu as assez de temps et de patience, avec les bonnes biblios, ça devient presque (presque, hein) simple. Après les phases de débuggages et de compatibilité un peu soûlantes, c'est bon, tout roule.

Après, en comparaison, prendre le programme de quelqu'un autre, et l'améliorer significativement c'est généralement impossible. Notamment parce que le niveau de perfection des programmes actuels font qu'ils ne sont souvent pas loin en puissance et en temps du meilleur algo possible pour le faire (je parle bien des plus poussés et des plus recherchés, hein)

Donc non, des "meilleurs algos" ça existe pas, et pour faire des calculs sur 1 million de données, ils faudra toujours au moins 1 millions de calculs. On a besoins de la puissance de vos ordis.

Souvent, si tu as trouvé un "algorithme ultime", c'est que tu as déjà traité l'information et que tu veux l'encoder au plus court. :D
Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
kamenskaya Membre 77 messages
Baby Forumeur‚
Posté(e)

C'est une question de puissance de calcul. Un ordinateur travaille de façon linéaire, ou allez sur quatre coeurs etc. Quand tu travailles dessus, tu crois travailler en parallèle sur pleins de tâches, en fait il n'en est rien, le processeur travaille par priorité et en distribuant les tâches à tour de rôle d'où l'importance de la mémoire RAM (DDR). Or, quand on a des dizaines des centaines voire des milliers d'ordinateurs qui se distribuent le travail de calcul on dépasse parfois même la puissance des supercalculateurs.

Tianhe-2 atteint par exemple 33,86 PFLOPS, soit 1015 opérations à virgule flottante par seconde ! Mais les supercalculateurs sont très gourmands en énergie et limités en nombre et on se rivalise pour louer leur usage au prix fort. D'où l'intérêt de calcul partagé... Par exemple un pentium 4 atteint jusqu'à 14.4 GFlop/s, donc avec 10.000 processeur de cette puissance on arrive à 1,44 x 1013 FLOPS/s ! Avec le réseau web c'est une opportunité inespérée.

preuve a l'appui, le Thiane-2 et ses 3.120.000 coeurs, consomme 17,808 MW...donc partageans la modeste puissance de nos processeurs pour faire avancer la recherche.

Lien à poster
Partager sur d’autres sites

Annonces
Maintenant

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.

×