Aller au contenu

Une intelligence artificielle a découvert des lois alternatives de la physique

Noter ce sujet


Dattier

Messages recommandés

Membre, Posté(e)
Dattier Membre 917 messages
Forumeur expérimenté‚
Posté(e)

Bonjour

 

La science moderne repose en grande partie sur le principe d’itération. On part de certaines affirmations simples et vérifiables pour construire des théories encore plus alambiquées qui, une fois validées à leur tour, serviront à établir de nouveaux modèles — et ainsi de suite.

Cette approche s’est montrée solide, et on lui doit aujourd’hui une immense quantité de progrès a ont indiscutablement fait avancer notre civilisation… mais cela ne signifie pas forcément qu’il s’ agissait de la seule piste possible. Si les circonstances avaient été différentes, notre méthode scientifique aurait très bien pu évoluer d’une façon très différente... 

 

https://www.journaldugeek.com/2022/08/09/une-intelligence-artificielle-a-decouvert-des-lois-alternatives-de-la-physique/

Modifié par Dattier
Lien à poster
Partager sur d’autres sites

Annonces
Maintenant
Membre, 🇪🇺, 🏳️‍🌈, 💻, 🐺, 🦂, Posté(e)
Jim69 Membre 19 603 messages
Maitre des forums‚ 🇪🇺, 🏳️‍🌈, 💻, 🐺, 🦂,
Posté(e)
Citation

Les chercheurs étaient donc bien incapables de savoir à quoi correspondait ce chiffre pour le moins curieux. Comment diable un nombre de paramètres peut-il être autre chose qu’un entier ? Que peut bien signifier ce 0,7 en pratique ? Pour des humains, cela a-t-il le moindre sens de raisonner avec des fractions de paramètres ?

Et ces "chercheurs" il ne leur est pas venu à l'idée que leur IA est tout simplement foireuse ? Non ? Parce que c'est une éventualité pas négligeable non plus.

Modifié par Jim69
  • Like 2
Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
Dattier Membre 917 messages
Forumeur expérimenté‚
Posté(e)
il y a 50 minutes, Jim69 a dit :

Et ces "chercheurs" il ne leur est pas venu à l'idée que leur IA est tout simplement foireuse ? Non ? Parce que c'est une éventualité pas négligeable non plus.

Les predictions de ce modèle sont aussi bonnes (voire meilleur) qu'avec les lois physiques classiques. 

Lien à poster
Partager sur d’autres sites

Membre, 66ans Posté(e)
VladB Membre 13 881 messages
Maitre des forums‚ 66ans‚
Posté(e)
Il y a 3 heures, Dattier a dit :

Les predictions de ce modèle sont aussi bonnes (voire meilleur) qu'avec les lois physiques classiques. 

C'est surtout que c'est un article de journaliste.

Et comme souvent en sciences il est très très léger.

Je l'ai lu en ayant hâte de trouver des liens à la fin sur non pas d'autres articles de journalistes, mais sur un ou des articles de scientifiques sur la question, auteurs ou non de ces tests. Comme toujours, il faut remonter à la source afin d'éviter les distorsions journalistiques, quand ce n'est pas du putaclic ou plus simplement de l'incompétence. Mais rien.

Quelques suspicions sur cet article :

Il y a contre sens il me semble compte tenu de l'inévitable boite noire que constitue un réseau neuronal et un des dernier propos de l'article : La formalisation des paramètres par l'IA. Non les paramètres n'ont pas été formalisés bien au contraire justement, car on se demande d'où provient ce 4.7 paramètres, d'ailleurs l'article dit bien qu'on ne sait pas quels paramètres sont utilisés par la machine.

Il est possible que ce nombre non entier de paramètre provienne d'une incompréhension du journaliste concernant une pondération de l'importance d'un paramètre, une évocation du nombre de paramètres requis qui évoluerait selon l'état du système, ou même un boutade des scientifiques concernant la nature des sorties du NN. On n'en saura rien.

On se doute que le journaliste n'as pas du manipuler beaucoup de réseaux neuronaux dans sa vie, normal, il est journaliste, mais il s'est empressé de sauter sur le caractère fantastique de la chose. On a eut droit à l'inévitable mécanique quantique, alors que ce n'est pas le sujet ! La question des pendules et autres données visuelle empiriques d'expériences étant déjà un sujet passionnant en soi, très compliqué, alors pourquoi passer à encore plus difficile ?

Mais rien y fait. Comme le journaliste ne comprend rien, un ptit coup de mécanique cantique, puis en boucle son extase sur une nouvelle façon de penser la physique, et hop voilà un bel article.

Pourtant il y a quelques questions passionnantes, le cœur du sujet en fait :

1) La généralisation.

Un des éléments clef de l'IA c'est la faculté de généralisation. C'est à dire qu'après un apprentissage sur quelque exemple, le système est performant sur des exemple jamais présentés, mais qui ont simplement certaine similitude avec ceux déjà connu. S'il y a performance alors on considère qu'on assiste à une bonne faculté de généralisation.

Ici on aurait une généralisation forte peut on dire, si la présentation de certaines expériences finissait par aboutir à une bonne prédiction en partant d'une image de départ d'une nouvelle expérience sans montrer le début du mouvement, ou du moins très peu. La question n'est pas évoquée.

D'autre part, il y aurait la généralisation faible, à savoir qu'une fois entrainé sur le double pendule, est-ce que si on présente une autre double pendule avec des longueurs différentes, est-ce que la prédiction est très supérieure ? (cad se contentant d'une séquence de mouvement initial beaucoup plus courte pour produire une bonne prédiction pour la suite ?) La question n'est pas évoquée.

2) C'est quoi 4.7 paramètres ??

La question ne sera précisée. On ne sait pas si c'est une boutade, ou sérieux, ou quoi. Ça ressemble à l'effet papillon. Peut être que le journaliste croit que l'effet papillon est réellement avéré sur la planète (l'effet existe, mais celui du battement de l'aile du papillon, non).

 

Bref... :aie:

  • Merci 1
Lien à poster
Partager sur d’autres sites

Membre, 74ans Posté(e)
boeingue Membre 23 346 messages
Maitre des forums‚ 74ans‚
Posté(e)

changer les lois de la physique  ,  rien que ça  !!

Maxwell , Einstein et tous les autres se seraient trompés , mais oui .....

Lien à poster
Partager sur d’autres sites

Membre, 66ans Posté(e)
VladB Membre 13 881 messages
Maitre des forums‚ 66ans‚
Posté(e)
il y a 5 minutes, boeingue a dit :

changer les lois de la physique  ,  rien que ça  !!

Maxwell , Einstein et tous les autres se seraient trompés , mais oui .....

Hum...c'est pas vraiment ça. Il s'agirait de les appréhender d'une autre façon. Par d'autres voies. Ce qui dans certain cas pourrait donner des résultats intéressants.

Concernant les dimensions mes conjectures ci-dessus étaient à coté de la plaque. Il semblerait que ça soit les degrés de liberté du système minimal. Ce qui est assez logique en soi, sauf que je ne comprend toujours pas pourquoi ce serait non entier. Le pb c'est que le NN n'est pas précisément décrit dans la vidéo. En fait il me manque toujours le texte scientifique pour en juger, bien que je commence à me faire une idée du bousin. La vidéo s'adresse à des pairs, des gens qui connaissent déjà bien le domaine de recherche.

@SpookyTheFirst, des compétences dans ce domaine ?

  • Like 1
Lien à poster
Partager sur d’autres sites

Membre, 56ans Posté(e)
SpookyTheFirst Membre 2 501 messages
Maitre des forums‚ 56ans‚
Posté(e)
Il y a 2 heures, VladB a dit :

Hum...c'est pas vraiment ça. Il s'agirait de les appréhender d'une autre façon. Par d'autres voies. Ce qui dans certain cas pourrait donner des résultats intéressants.

Concernant les dimensions mes conjectures ci-dessus étaient à coté de la plaque. Il semblerait que ça soit les degrés de liberté du système minimal. Ce qui est assez logique en soi, sauf que je ne comprend toujours pas pourquoi ce serait non entier. Le pb c'est que le NN n'est pas précisément décrit dans la vidéo. En fait il me manque toujours le texte scientifique pour en juger, bien que je commence à me faire une idée du bousin. La vidéo s'adresse à des pairs, des gens qui connaissent déjà bien le domaine de recherche.

@SpookyTheFirst, des compétences dans ce domaine ?

Il faudrait que je télécharge le papier (par chance j’ai un accés gratuit) et le lise, pas sûr que j’ai le temps et l’énergie…:D. Ce qui est marrant c’est qu’en cliquant sur ta vidéo, je me suis rendu compte que j’avais déjà regardé la moitié dans le passé…:)

De manière ultra-superficielle, ca ressemble aux architectures classiques d’autoencodeur (ca existait il y a 30 ans, aujourd’hui en imagerie ce sont des UNet), des réseaux en diabolo où les couches centrales ont moins de neurones et permettent  de réduire l’information à quelques variables, qui pourraient être considérées comme des “variables d’état” du système.

  • Like 1
Lien à poster
Partager sur d’autres sites

Membre, #GauloisRéfractaire, Posté(e)
LulzLamo Membre 4 233 messages
#GauloisRéfractaire,
Posté(e)
il y a 18 minutes, SpookyTheFirst a dit :

De manière ultra-superficielle, ca ressemble aux architectures classiques d’autoencodeur (ca existait il y a 30 ans, aujourd’hui en imagerie ce sont des UNet), des réseaux en diabolo où les couches centrales ont moins de neurones et permettent  de réduire l’information à quelques variables, qui pourraient être considérées comme des “variables d’état” du système.

Ne suis pas sûr de comprendre, je développe un peu afin de voir si je ne suis pas complétement à coter de la plaque.

Les autoencodeurs sont en effet des architectures de réseaux de neurones qui ont été utilisées depuis plusieurs décennies pour la réduction de dimensionnalité des données. Leur fonctionnement repose sur l'idée de "coder" les données d'entrée en un espace de représentation de dimension réduite, puis de "décoder" cette représentation pour reconstruire les données d'entrée. Les couches internes de l'autoencodeur, appelées couches de codage, ont généralement moins de neurones que les couches d'entrée et de sortie, ce qui permet de réduire l'information à quelques variables importantes, appelées variables latentes.

Les UNet sont une variation des autoencodeurs qui ont été développés pour la segmentation d'images médicales. Ils permettent de garder les informations spatiales de l'image en utilisant des connexions de "saut" entre les couches de codage et de décodage.

En effet, les architectures classiques d'autoencodeurs peuvent être considérées comme des modèles simplifiés de systèmes physiques, où les variables latentes de l'autoencodeur correspondent aux "variables d'état" du système physique. Il existe maintenant des architectures plus avancées qui permettent d'appliquer cette idée à des systèmes plus complexes, comme les réseaux en diabolo ou les réseaux variationnels, et qui ont des applications dans des domaines tels que la physique, la chimie et la biologie.

Après je ne suis pas dans mon domaine d'expertise, je suis dans l'ultra-à-peu-près:help:

  • Like 1
Lien à poster
Partager sur d’autres sites

  • 1 mois après...
Membre, Agitateur Post Synaptique, 55ans Posté(e)
zenalpha Membre 19 083 messages
55ans‚ Agitateur Post Synaptique,
Posté(e)

Le gros intérêt du deep learning, c'est de produire des systèmes non explicables, non rationnels, qui ne sont pas théorisables et qui sont créés à partir de données importantes, d'algorithmes d'apprentissage, et de la puissance de calcul des ordinateurs.

Car en effet, ces systèmes rivalisent très bien voire mieux parfois dans des tâches où on ne les attend pas.

La reconnaissance des visages, le jeu d'échecs ou de go, ..., ou donc la création de modèles empirique efficace 

Il y a une forme de rivalité entre de tels algorithmes et l'intelligence humaine 

Celle qui a conduit les meilleurs joueurs d'échecs ou de go à se faire battre ou celle qui conduit Alain Connes à comparer ces performances à une "diablerie" en renonçant à comprendre comment ces résultats sont atteints.

Les meilleurs joueurs de go avaient notamment été totalement surpris par un coup totalement atypique de l'IA, un pion placé dans un endroit insolite et qui a pourtant eu un rôle clé bien plus tard dans la partie contre Lee Sedol

Restent des failles 

Par exemple, dernièrement c'est un joueur bien humain, Kellin Pellrine qui a défait les algorithmes de deep learning en adoptant une stratégie d'encerclement soi disant assez triviale pour un joueur de go et qui lui a permis de démonter plusieurs programmes d'IA

Et une des conclusions est la suivante 

Tant que le processus répond à un séquencement présenté de nombreuses fois à l'IA, la puissance de calcul et les algorithmes de deep learning surpassent l'homme

Mais dès qu'une séquence originale se présente, aucune adaptation, aucune réelle originalité, aucune créativité 

La théorisation par exemple en mathématique ou en physique permet de "comprendre" une structure sous jacente qui porte en elle son lot d'enseignement 

La prédiction du boson de Higgs est portée par la théorie avant qu'il n'y ait eu une seule observation 

Imiter le mouvement d'un pendule par un algorithme de deep learning permet de trouver de "nouvelles lois physiques" mais dans un cadre précis alimenté par de nombreuses données

On aura pas les mêmes fondements ni la même robustesse qu'une loi physique qui rendra compte de l'ensemble de la mécanique classique, juste une redéfinition de paramètres exotiques qui répondront aussi bien mais dans un contexte précis 

Que fait par exemple le mathématicien ?

Il généralise un problème, il le résoud dans les cas les plus simples et il conceptualise la démonstration, la theorise en adoptant notamment l'analogie

Ce process est totalement hors de portée de l'IA car les algorithmes sont des formes de combinatoires gagnantes et non une compréhension profonde de la nature des travaux réalisés

Une IA ne sait même pas qu'elle fait une partie de go

En statistiques, les algorithmes de deep learning sont à la fois stupéfiants dans l'exploitation maximale des données entrées et ahurissant de sottise en étant parfaitement incapable de donner sens aux résultats obtenus 

Lien à poster
Partager sur d’autres sites

Membre, 73ans Posté(e)
Pratika Membre 1 239 messages
Mentor‚ 73ans‚
Posté(e)

Je n'ai aucun domaine de compétence dans les matières scientifiques, vous le savez.

Il n'empêche que je me réjouis toujours de constater l'existence de nouvelles pistes, voire de nouvelles voies, pour explorer notre monde, que dis-je, notre univers !

:help:

Lien à poster
Partager sur d’autres sites

Annonces
Maintenant

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

Chargement
×