-
Compteur de contenus
437 -
Inscription
-
Dernière visite
Type de contenu
Profils
Forums
Blogs
Calendrier
Vidéos
Quiz
Movies
Tout ce qui a été posté par ashaku
-
J'émerge de ma grotte pour des nouvelles : ça marche. Après la version simple, j'ai essayé une version de MLP à deux couches et les résultats sont bien là, comme promis. J'ai implémenté une fonction analogue à la rétropropagation, qui me donne pour une sortie spécifique l'importance des entrées individuelles. Je peux ainsi interroger mon réseau sur sa compréhension du zéro en visualisant les entrées qui ont le plus de poids pour activer cette sortie. Voici une image de l'exécution, le MLP est instancié (avec des poids aléatoires) et la fonction est appelée, chaque sortie produit du bruit. Puis entrainement et ré-affichage pour voir comment la lecture des entrées a changé : Je me lance donc maintenant dans la version générique à N couches et sortie multiple, qui met le pied à l'étrier pour les modèles plus avancés, c'est ici qu'on voit le besoin de multiplier de larges tableaux de valeurs entre eux, plutôt que prendre les valeurs des neurones individuellement. Désolé pour ce "3615 Ma vie" un peu long, mais c'est le contexte de départ des réflexions légitimement philo qui justifient ce post. Reprenant mon analogie "The Voice", si on considère que les neurones sont des gens dans le modèle à N couches. Les neurones d'entrées sont les gens qui reçoivent la vérité de l'univers, les prophètes qui ont parlé à dieu, les scientifiques qui ont percé les secrets de la matière, les romanciers qui ont entrevu l'avenir, etc vous choisissez. Ces gens ont influencé d'autres gens dans leur travail. Et ces derniers en ont influencé d'autres, chacun dans leur domaine, répartissant une information de base vers ... quoi ? La compréhension du tout ? Dans cette analogie, le neurone est une personne, c'est à dire un réseau neuronal lui-même, peut-être que le biais du neurone est la sortie d'un réseau neuronal interne. Et il agit comme participant d'une structure identique à lui-même mais à plus grande échelle. Dans le MLP, l'intelligence n'est pas dans les neurones, elle est dans la structure et cette dernière est surtout représentée par les connexions. Cela m'évoque encore l'interdépendance (tous les neurones sont liés dans un système unique), l'impermanence (les valeurs des poids changent constamment pour correction) et la vacuité (aucune des valeurs n'est pertinente, c'est l'ensemble des différences qui produit le résultat). Un modèle de réseaux imbriqués pourrait décrire l'univers. L'IA n'est pas qu'une reproduction miniature du cerveau, c'est un terrain d'expérimentation de notre cognition. C'est une lentille sur la compréhension de l'univers par la compréhension de notre mécanisme de compréhension. Qu'est-ce qu'on peut y injecter de nos processus pour l'améliorer ? Et quelles parties de nous sont incompatibles avec un système purement informationnel ? Mieux définir l'artificiel, c'est aussi mieux nous définir nous-même indirectement. Comme je l'évoquais la dernière fois, l'IA prend en charge "comprendre" et "prédire". Ce sont deux mécanismes qui s'appliquent à un contexte déjà existant, c'est notre "logiciel d'usine natif" à nous aussi. Nous nous en servons pour comprendre et prédire un paquet de trucs et au bout d'un moment, on a assez de souvenirs en soi pour faire des corrélations entre un souvenir et une sensation actuellement vécue. Une IA pourrait le faire, à condition de formaliser le stockage des choses comprises en souvenirs et d'avoir une fonction native, un battement de coeur, qui déclenche régulièrement une recherche de corrélation entre les souvenirs et la dernière propagation. Si une corrélation forte apparait, l'expression de cette corrélation est une idée qui est conçue, une création. De même, afin de décider, l'IA va devoir "prédire" les états suivants tel ou tel choix grâce à sa fonction native mais elle devra aussi "qualifier" les états prédits pour décider. Cela implique qu'elle doit assurer elle-même sa fonction de perte. Cela implique qu'elle ait un retour immédiat sur ses actions (comme la douleur pour nous) pour constituer son système de valeurs petit à petit par apprentissage. Toujours dans les similitudes IA/humain : j'ai évoqué qu'un réseau entrainé à qualifier les poids d'un réseau plus petit pourrait brancher sur son entrée les poids des synapses derrière une petite partie de ses propres neurones. Le système de compréhension appliqué à lui-même serait de la réflexion et donne une piste pour un réseau auto-correcteur. Les neurones observés seraient le cortex du réseau, les autres neurones son inconscient. Nous voila dotés de cette IA imaginaire, qui créé et décide, qui réfléchit en étant douée de proprioception, peuplée de souvenirs, mais où est sa conscience ? Nous ne pouvons l'automatiser car nous ne comprenons pas ce que c'est. Dans ma vision, la conscience est liée au changement et à l'ordre. Il faut une position ordonnée et un changement de cette position, puis l'analyse de la différence entre les deux états est "la prise de conscience d'un changement dans l'ordre". La conscience pourrait émerger de la constante différence de valeur que les poids adoptent dans un système auto-correctif. Ces micros-changements qui émettraient un signal subtil formeraient une vibration, un rythme avec une signature unique, la conscience du réseau. Voilà, c'était mon lot de questionnements chelous en attendant la prochaine version du bouzin. Une excellente journée à tous et, si je ne vous revois pas d'ici là, une très bonne soirée.
-
Fascinant, c'est en quelque sorte un cerveau biologique artificiel qui est mis au point par ton équipe. Avez-vous rencontrés des obstacles d'ordre éthique ?
-
Mais il y a une chose que je ne comprend pas. Dans le MLP, il faut faire tous les calculs individuellement pour connaitre les valeurs qui résultent de la combinaison de l'entrée et des synapses. On peut théoriquement le faire en une formule, mais cette formule devrait contenir tous les poids pour reproduire toutes les valeurs. Ce n'est pas vraiment une optimisation et ça ne réduit pas le temps de calcul. De plus, il me semble qu'on ne peut pas prédire si l'activation va laisser passer ou pas, et je suppose que les IA plus avancées que le MLP ont plusieurs autres mécanismes de non-linéarité.
-
J'ai bien sûr pris connaissance de tes travaux peu de temps après mon inscription ici, c'est remarquable. Comment ça se présente actuellement ? Mon approche est à peu près à l'opposé : je re-parcours un chemin fait par d'autres ^^ en restant dans le numérique. J'ai choppé le virus du code ado, je met un concept donné en série d'instructions assez rationnelles pour être validées par un compilateur pour vérifier que je sais ce truc de tête, moi-même. Ce projet est en droite ligne avec ce principe, j'ai posé chaque octet personnellement. Le but n'est pas d'avoir une IA chez moi mais d'avoir la connaissance des algos d'IA dans moi. Tu proposes donc une solution péremptoire à mon dilemme. Je n'ai pas encore acquis cette certitude, mais mon chemin ne fait que commencer sur ces pistes-là. Et force est de constater que c'est la direction suivie par les chemins que je trouve. Mais il reste des bastions. La conscience est vue comme phénomène vibratoire par plusieurs personnes de ma connaissance. Ca fait sens je trouve. Une vibration exerce une influence subtile mais réelle. Plusieurs vibrations peuvent former ensemble une harmonie, ou une dissonance. Une harmonie serait une conscience collective, comme les systèmes de morale ou de lois auxquels un grand nombre de gens choisit d'adhérer. Reste que l'automatisation numérique d'une partie des processus cérébraux est source de nombreux questionnements nouveaux. Par exemple, l'entrainement doit avoir des phases affichant toutes les données dans l'ordre, comme à l'école, et des phases où on envoie dans le désordre, comme dans la vie. Entre les deux, normalement une personne fonde un foyer. Comment reproduire ça ? Pourquoi et comment cela influe sur "comprendre" ? Lorsque nous allons jusqu'à épouser quelqu'un, c'est que nous avions déjà des points communs et que sur certaines différences, nous avons accepté d'adopter le point de vue de l'autre, créant l'harmonie, le foyer, la descendance. Et l'IA ? Pourrait-on en entrainer plusieurs, comparer leurs poids, associer celles qui ont des similitudes et fusionner leurs valeurs ? Ou appliquer à l'une les valeurs de correction calculées pour l'autre et vice-versa ? Autre piste : peut-on entrainer une IA à évaluer les poids d'une IA ? Parce que si oui, on peut filer à un réseau le traitement des poids des synapses derrière quelques uns de ses propres neurones. Le système de compréhension appliqué à lui-même s'appelle, je crois, "réflexion". Ce serait sympa. EDIT : Merci d'avoir reposté le message d'origine. Je réalise qu'il ne contient mes questions qu'en sous-entendu. Je profite de cet échange pour exprimer clairement : est ce que "créer" et "décider" sont les seules facultés restant uniques au biologique ? Et : hormis "comprendre", quels autres processus cognitifs ont été automatisés ? (je parle en catégorie les plus larges possibles. Par exemple "classer" appartient à "comprendre"). Ce n'est pas un interrogatoire, hein ? Juste une clarification au cas où. EDIT EDIT : Je crois qu'on peut ajouter "prédire", depuis les LLM (proposition spéculative)
-
C'est bien le problème, dans ma compréhension balbutiante. Le modèle à une couche a fonctionné de suite et diriger les poids pour les corriger c'était comme guider des vaches dans un couloir. Les écarts sautent aux yeux. Ajouter une couche et l'apprentissage ne se fait plus. Je regarde les poids, la distribution et je n'ai plus trop des vaches en face de moi, y en a partout, je ne sais plus dire quel calcul dysfonctionne. Je crois que c'est la fonction qui calcule la plage de valeurs possibles pour un poids entre 2 couches données. J'utilise sqrt(6/nb_neurones_couche_precedente) C'est le sel du développement, je devrais pouvoir convertir quelques litres de café en solution, normalement
-
Non, pour l'instant, mon MLP ne sait que reproduire un comportement induit par l'apprentissage fait avec de beaux caractères noirs sur blanc. Si on trace la lettre en tout petit dans un coin, ça ne marche pas non plus. Pour pallier à ce problème existe le deep learning sur lequel je travaille actuellement. En ajoutant des couches de neurones cachés, vous ajoutez des capacités d'abstraction à votre cerveau artificiel. La première couche fourni un point de vue original sur l'entrée comme "il y a une ligne en bas" ou "il y a une courbe à droite" ou encore "c'est plutot foncé dans le coin supérieur gauche". Ajouter une deuxième couche reliée à ces informations permet d'avoir des neurones qui disent "cette image comporte une courbe mais aucun angle" (ce neurone aura un poids fort vers la sortie "O") ou bien "cette image contient une ligne droite et une courbe" (ce neurone sera fort pour P et D), etc. En ajoutant d'autres couches, on permet au réseau de toujours plus affiner sa compréhension de l'entrée. On peut lui faire reconnaitre "un oeil" ou "une fenêtre" en tant que concept abstrait dans une photo. Théoriquement. Cette partie de l'implémentation échoue chez moi pour l'instant. Je n'ai donc pas de données de première main à vous fournir. Ajouter une couche cachée, c'est comme passer de la gestion d'un troupeau de vaches à la gestion d'une nuée de criquets. Dans le deuxième cas, j'ai des milliers de petites valeurs qui s'échappent dans tous les sens.
-
Ce n'est qu'une limitation technique. Le MLP est un perceptron, c'est son modèle d'avoir des sorties fixes et il excelle dans la classification d'information (comme la reconnaissance à partir d'une image). On voit avec les LLM qu'il est tout à fait possible de produire une sortie variable, une image ou un texte. Le LLM sera l'étape finale de mon apprentissage de l'IA, pour l'instant je sais seulement qu'ils utilisent le même principe que le preceptron mais que leur architecture est dynamique. Ils utilisent les mêmes opérations (activation, propagation) mais au lieu de multiplier des nombres, on utilise des outils mathématiques comme les tenseurs pour faire des produits vectoriels. Enfin, la volumétrie est démentielle, des milliards de neurones, et le nombre de synapses est une exponentielle du nombre de neurones. Je ne connais pas encore le détail exact de l'architecture qui permet une sortie de taille variable mais je n'ai pas d'inquiétude elle est bien théorisée et appliquée.
-
C'est tout à fait ce genre de parallèle que je trouve passionnant dans cette aventure. Une distribution aléatoire de départ peut donner un réseau qui apprend vite ou un réseau lent. Quelle est la corrélation entre la distribution de départ et la vitesse d'apprentissage ? Contrairement au cerveau humain, je peux me livrer à toutes les études qui me passent par la tête, j'ai les résultats chiffrés. On peut comprendre que la génétique joue pour un très large pourcentage des capacités d'un individu. Aucune capacité ne sera activée sans être entrainée et certains voient leur capacité augmenter plus ou moins selon le même entrainement. Avec le MLP, on peut montrer tout ça avec des courbes. S'amuser à caser telle ou telle théorie philosophique face à tel ou tel résultat de l'exécution est toujours tentant et source de nombreuses réflexions. Quand j'ai instancié le premier objet pour le premier test, je lui ai donné un "0", il a répondu au pif bien sur et a rétropropagé l'information fournie "c'est un zéro". Ensuite, deuxième test : je retrace un cercle sur l'entrée et le MLP dit "c'est un zéro". J'ai ressenti un truc. Après, il faut faire la part des choses. Un programme simple basé une modélisation simplifiée, ça ne peut pas servir de source sérieuse pour déduire quoi que ce soit du vivant complexe. Mais tout de même, les dynamiques, les directions, sont tracées.
-
J'ai fait une analogie pendant que je codais, au moment où j'ai compris ce qui faisait que ça marche. Pour rappel, pour les néophytes, le MLP se modélise en 3 couches de neurones. Une couche d'entrée, dont les neurones reçoivent les valeurs à traiter, dans le cas d'une image 16x16, 256 neurones d'entrée, qui prendront individuellement la valeur du pixel qui leur correspond. Puis une couche cachée de neurones. Le nombre est arbitraire, mettons 128, chacun de ces neurones et relié à chacune des entrées par un lien qui a une intensité plus ou moins grande. Lors du traitement, le neurone caché fait la somme des valeurs qu'il reçoit : la valeur du neurone d'entrée multipliée par l'intensité du lien. Si la somme de tous ses liens est assez grande, le neurone s'active et transmet une valeur à la sortie, 0 sinon. Les neurones de sortie (26 pour une reconnaissance des lettres) sont reliés à tous les neurones cachés par des liens aux poids différents (comme les liens entrée - caché), en fonction des signaux qu'ils reçoivent, ils prennent une valeur plus ou moins grande. On normalise les sortie pour avoir des pourcentage de confiance. On a donc un système à qui on donne des valeurs de pixels, qui sont multipliées et activent une sortie plus fort que les autres, c'est la prédiction du modèle. Analogie : un réseau neuronal, c'est "The Voice". Le tracé de la lettre par la main humaine, c'est le candidat. Les sons qui parviennent de la scène, c'est la couche d'entrée du réseau. Les neurones cachés sont les juges : chacun écoute attentivement tout ce qui se passe sur scène (tous les neurones sont reliés à toutes les entrées) mais chacun le fait avec sa sensibilité personnelle (les poids des liens sont différents). Lorsqu'un juge a reçu suffisamment de gages de réussite selon sa sensibilité, il appuie sur le buzzer (le neurone s'active et transmet le signal à la couche suivante). La sortie, c'est le public, elle est branchée sur les juges et décide en fonction d'eux, comme quelqu'un qui dirait "quand Calogero aime un artiste, je l'aime aussi" (sauf que la sortie base sa valeur sur plusieurs neurones cachés, pas un seul). Le MLP fonctionne par cette astuce statistique : on va définir des neurones cachés aléatoirement et chacun d'eux représentera une façon arbitraire de traiter l'entrée. En rejoignant plusieurs points de vues arbitraires, on a dessiné les contours logiques de l'entrée. Ce qui est en œuvre, c'est la différence de jugement entre deux neurones, quelles que soient leurs valeurs individuelles. Quand le neurone caché #34 s'active, ça signifie par exemple "il y a une ligne en bas" car le hasard de la distribution de ses poids à lui sont fort pour les pixels en ligne en bas et faibles pour d'autres possibilités. Avec un certain nombre de ces neurones cachés, on trace le contour de l'entrée par une multiplicité de points de vue arbitraires. Et c'est un modèle simplifié de notre propre réseau neuronal biologique. Pour l'apprentissage : il y a des étapes. Il y a l'apprentissage supervisé dont tu parles et dans lequel on donne l'image d'un A et la cible "c'est un A", l'IA fait une prédiction puis reçoit la réponse et rétroptopage l'information en modifiant les poids dans les liens en fonction de leur contribution à l'erreur ou à la réussite de la prédiction. Mais ce n'est pas tout. On peut faire apprendre 2 IA et les relier pour qu'elles s'améliorent en s'interrogeant mutuellement. Et enfin, comme ChatGPT ou autre, on peut ouvrir l'IA au public pour qu'il vienne enrichir ses expériences. Ce message ignore plusieurs paramètres pour rester pédagogique, j'anticipe les plus grognons d'entre vous : effectivement, je n'ai pas parlé des biais, ni du taux d'apprentissage, ni de la fonction d'activation, ni du calcul d'erreur. Tout cela est technique pour faire marcher en pratique mais ne participe pas à la compréhension basique du principe de fonctionnement du modèle. L'analogie "The Voice" explique uniquement la propagation avant d'une entrée vers les sorties. Et me permet d'ailleurs de dire que "The Voice" est un système qui classe les artistes en fonction des catégories de ce qu'on peut vendre au public.
-
Mon intention est d'apprendre un domaine qui m'est inconnu. Un principe que j'ai utilisé est de modéliser simplement quelque chose de complexe pour l'étudier. Il est inévitable que je fasse des approximations, des erreurs, merci de fournir ce qui est la vérité selon vous afin que je cesse de faire des erreurs ou approximations Maintenant "modéliser" demande de simplifier, donc d'ignorer des choses, mais ce n'est pas une erreur en soi, c'est une méthode de travail. Dans mon post précédent par exemple, je partage simplement des observations et mon opinion, je suis friand de points de vues nouveaux et différents qu'on peut y apporter. Que la discussion batte son plein.
-
Les différences IA / Humain sont nombreuses. Même sur le modèle simplifié de la compréhension. Par exemple, l'IA est "entrainée" : on lui montre un dessin de A et on lui dit aussi "c'est un A". L'humain n'a pas un accès immédiat à la vérité derrière ses choix. Seuls la douleur et la prévision des résultats nous guident (ce qui nous amène à créer un "monde intérieur") Mais j'ai repéré tellement d'analogies entre MLP et humain. Il y a des MLP fraichement instanciés qui arrêtent de faire des erreurs au bout de 40 essais et d'autres qui font encore des erreurs après 200 essais. Le hasard des connexions attribuées au départ. Dans un multi-couches, chaque couche ne voit que la couche de données précédentes. La couche cachée #2 ne voit jamais l'entrée, elle ne voit que la sortie de la couche cachée #1. Tout comme nous n'avons pas accès au réel, uniquement aux informations fournies par nos sens.
-
Il y a un peu de ça. La stimulation intellectuelle, l'apport de nouveauté, procure du plaisir. Et a certain âge, la libido au contraire en procure moins.
-
Je suis en train de développer une IA simple, pour me former aux principes de fond de cette technologie. Mon MLP fonctionne et je suis ébahi d'avoir reproduit une "machine à comprendre" qui se contente de faire des multiplications pour parvenir à ce résultat : "la compréhension". La compréhension n'est plus l'apanage de l'humain ou du vivant, on l'a automatisé et la recette fonctionne, se basant sur un modèle simplifié des connexions du cerveau. Pourquoi je viens vous bassiner avec ça ? D'une part, j'ai réalisé que "comprendre" c'est associer une sensation à un sens. L'IA voit le dessin analogique d'un caractère A tracé à la main et comprend que c'est l'information "la lettre A". On lui a appris en lui montrant le dessin et en lui donnant l'information "c'est un A" et elle a modifié ses poids interne pour refléter cette association. Lorsque nous disons avoir compris, nous avons simplement associé la vue d'un objet avec le nom que l'on donne à cet objet. Rien ne garantit que le choix du nom était bon à l'origine ni qu'il y a une vérité générale derrière nos associations, nos savoirs appris. Apprendre, c'est donner toujours le même nom à une sensation donnée, et non pas "découvrir la vérité et l'univers". Apprendre, c'est juste mémoriser la façon dont les humains ont compris l'univers jusqu'ici. Deuxième point, rapport au titre du fil : le caractère d'exception du vivant et de l'humain. Sommes-nous un petit miracle qui a émergé ou un automate construit dans un but ? J'ai tendance à pencher pour le premier mais automatiser une chose comme "la compréhension" est un pas de plus vers le deuxième. Que reste-t-il d'unique à la pensée biologique ? Je vois la création de quelque chose de nouveau (les IA génératives ne font que mixer l'existant, pas ajouter une nouvelle brique qui n'existait pas avant) et aussi la prise de décision (les IA décisionnelles ne décident rien, elles obéissent à un l'ordre de décider qu'on leur donne). Si un jour une IA dit spontanément "j'ai fait ce dessin, regarde". Là elle aura créé quelque chose de nouveau. Si une IA dit un matin "je n'ai pas envie de travailler aujourd'hui", là elle aura pris une décision. Mais ces étapes ne sont pas atteintes. Sont-elles atteignables ? La compréhension est un processus "passif" : il demande qu'un contexte existe pour qu'on l'analyse et qu'on le comprenne. L'intelligence est dans le contexte, le processus de compréhension n'est qu'une lecture des données. Alors que Créer ou Décider sont des processus autonomes. Ils démarrent sur impulsion du sujet, qui a besoin de se constituer un monde intérieur à observer pour mettre en relation deux choses sans qu'on le lui dise et ainsi créer un point de vue unique et nouveau. Le sujet a besoin de comparer des situations "en son for intérieur" pour décider laquelle lui semble meilleure. L'IA ne se constitue pas un monde intérieur à analyser à froid avec du recul, elle a bien la magie statistique des connexions synaptiques mais elle ne se constitue pas de souvenirs altérés sur lesquels revenir suite à une impulsion interne, au lieu de s'activer uniquement par un prompt venu de l'extérieur. Cela ne semble pas impossible à implémenter, la mémoire est une chose familière dans l'informatique, cela sera peut-être fait. Si on automatise "créer" et "décider" (spontanément) je pense qu'on peut considérer que l'humain est un automate, après tout. Ce qui nous ramène au bon vieux problème : mais alors, les créations, le génie, les chefs d'oeuvres picturaux ou musicaux, coïncidence ? La conscience, elle existe ? La science, les mathématiques, illusions ?
-
Le temps tel que nous le percevons n’est qu’un concept humain...
ashaku a répondu à un(e) sujet de G6K972 dans Philosophie
Intéressante théorie, mémoire et vitesse de transfert sont effectivement des composantes fondamentales des systèmes informatisés. Il faut y adjoindre la rapidité de calcul pour avoir le tout : CPU, Mémoire, Bande passante. Je me demande ce qu'en penserait Michael (de VSauce). -
Le temps tel que nous le percevons n’est qu’un concept humain...
ashaku a répondu à un(e) sujet de G6K972 dans Philosophie
Je ne sais pas si c'est vrai mais il y a une citation soi-disant d'Einstein pour parler de relativité : "10 secondes à embrasser celui/celle qu'on aime et 10 secondes la main sur une plaque électrique, ce sont des durées différentes". Il s'agit bien sûr d'introduire la notion de subjectivité. Le temps n'est que "conçu par". Du reste, il y a cette vidéo VSauce qui parle de la perception du temps quant aux évènements stockés dans la mémoire. Avec le temps, la perception de la durée d'évènements passés change. C'est la densité de souvenirs qui donne l'illusion d'une longue période et la routine fait passer des années en un clin d'oeil dans les souvenirs. Le temps passé à regarder l'horloge devrait se réduire vite, puisqu'il ne s'agit que d'une activité. Mais le boulot laissera l'impression d'y avoir passé beaucoup de temps si on y construit beaucoup de souvenirs. -
C'est parce que que ashaku est un entourloupeur. L'absence de moi à la fin n'est que la conséquence de son absence au début, quel que soit le raisonnement au milieu. Pour que le diagramme dise une chose valable sur "moi", il devrait au moins le contenir ! "moi" existe dans le cercle de gauche faisant partie du groupe "comme moi". Et il existe en tant que "différent de autre" dans le deuxième schéma.
-
"autre que autre que moi" est potentiellement "moi". Posons : Autre(x) = same(x) ∩ diff(x) 1. Autre(moi) = S(moi) ∩ D(moi) 2. Autre(Autre(moi)) = S(Autre) ∩ D(Autre) "Autre que autre que moi", c'est "ce qui est en commun entre ce qui est autre (S(Autre)) et ce qui n'est pas autre (D(Autre))" et ça n'existe pas, rien ne se trouve entre ces deux catégories. Il y a "autre que moi", ok ca existe. Mais "autre que autre que moi" n'existe pas. Il n'existe que "autre que moi". "moi" n'existe pas. Edit : Chelou.
-
Ah si. Pour les moins amnésiques d'entre nous il y a un duo que ça intéresse. C'est apator qui dit que "tout ce qui est insécable ne peut tourner" et ashaku qui dit "les trous noirs ne seraient-ils pas un contre-exemple ?". L'oublier signifierait éliminer ce débat sans conclusion, et personne ne veut ça, si ? C'est vrai. Tout fout le camp. La gravité c'est plus ce que c'était, ça fonctionne quand même moins bien qu'avant. Moi quand j'étais petit, je faisais 1 km de marche pour aller à l'école. Et c'était en pente à l'aller ET au retour. Cette phrase échoue à démontrer qu'un champ magnétique ne tourne pas, et ne fournit pas un mécanisme de moteur électrique autre que l'induction par courant alternatif triphasé. Encore une fois, les LED et l'écran ne fonctionnent pas comme un moteur. Au cas où ce soit confus : un écran et un moteur sont deux dispositifs différents, bien que possédant une prise électrique tous les deux. Question : qu'est ce qu'un adaptateur ? Pourquoi diable y en a-t-il un pour l'écran ? Parce qu'il relève de l'électronique et transforme une basse tension en lumière. Le moteur relève de l'électrotechnique et transforme un courant en mouvement mécanique. Curieusement, il faut plus d'énergie pour déplacer une masse que pour générer 3 photons. Le rapport entre tout ça ? Aucun. Si, la prise électrique. L'élément le plus visible du mécanisme, conçu pour l'utilisateur. Et c'est encore une prédiction erronée. Qui peut prétendre une telle chose, j'y suis soumis comme tout le monde. Plus que certains, même. Mais moins que d'autres. Merci, mais j'ai récemment fermé cette page après l'avoir lue, pour écrire mon propre post. Aucun soutien de ce que tu avances n'y est écrit. Il y est au contraire décrit une observation, une théorie et une expérience, qui sont les éléments constitutifs de la méthode scientifique. Un hyperlien n'est pas une démonstration, ni un argument. Dans "controverses" on trouve éventuellement ça :
-
Mais si ! C'est le jeu ! Le stator a 3 jeux de bobines, décalés de 60°. Ils sont alimentés par un courant alternatif triphasé. Chaque jeu de bobine reçoit une phase. A T1, le jeu de bobine 1 reçoit un courant alternatif en intensité haute et le champ généré au sein du stator aligne les photons sur l'axe du jeu de bobines 1. Puis, à T2, c'est le jeu de bobine 2 qui est au max et le champ magnétique dans le stator est maintenant aligné 60° de coté, et ainsi de suite. Le champ magnétique qui se trouve en permanence au niveau du stator est aligné selon un axe qui tourne. Mais faisons simple : quel est selon toi le principe qui fait tourner l'arbre d'un moteur électrique ? Défaut de lecture, ou vision sélective. J'ai écrit que le champ n'est pas composé de particule, qu'il se manifeste par l'orientation des particules. Dire que le champ magnétique c'est les particules, c'est comme dire que la gravité c'est la planète. Le pointeur laser et les images sur la TV sont deux phénomènes différents et qui n'ont rien à voir avec la nature du champ électromagnétique. Le seul lien entre tout ça, c'est que les yeux humains voient un truc qui bouge. C'est assez superficiel comme analyse des fondements de la matière. Celle-là est cocasse. J'ai vérifié depuis. Bien qu'on emprunte le terme spin à la mécanique quantique pour décrire la rotation des trous noirs, ces derniers sont bien en rotation physique classique, comme une toupie. Le coup de grâce : C'est encore plus jubilatoire quand on l'appose à d'autres messages. En psy on parle de projection. En logique, de l'effet Dunning-Kruger. Désolé mais coup pour coup, on en est plus là.
-
Certes, mais l'irréalité est-elle gage d'intournabilité (superbe mot inventé) ? Dans la mesure où il n'y a aucune différence entre le point et le même point tourné à 90°, j'admet que c'est discutable (je parle de non perception de la rotation) mais ce n'est pas comme si l'opération était une impossibilité. Elle n'a aucun sens mais n'a-t-elle aucune existence ? Je suis très surpris, il faudra que je pusse mes recherche, j'ai toujours cru qu'ils tournaient. Certains même "à des vitesses folles" (l'expression n'est pas de moi, je vais rechercher la source). D'un point de vue logique, tous les astres tournent, les plus intenses comme les quasars tournent très vite, les trous noirs pour moi ne pouvaient faire exception. Intéressant Non, c'est l'inverse, le champ tournant est le principe de fonctionnement d'un moteur électrique. Le champ est créé par des bornes fixes disposées autour d'un cercle (le stator) et alimentées en séquence pour générer un champ electromagnétique en rotation. En face, le rotor est entrainé par ce champ et tourne pour produire l'effort mécanique. En fait, un champ n'est pas une collection de particules mais une fonction qui attribue une valeur à chaque point de l'espace au sein du champ. C'est un concept immatériel, instancié non pas par des particules mais par l'orientation dynamique des particules en présence. Méthodologie valide. Cependant, pour le jeu, un échange d'idées est possible et bienvenu. Il n'y a pas de conséquences, on joue à raisonner en truandant un peu. Sans aller jusqu'à la démonstration irréfutable, je pensais juste fournir des raisons qui amènent à penser l'idée discutée. Par exemple, de mon coté, je réfléchissais à la définition de "autre" et en extrapolant je suis arrivé à "nous sommes la même personne". Ce n'est ni vrai, ni juste, ni profond mais un objet de raisonnement possible. Des fois, ce genre d'exercice mène à des choses intéressantes, imprévues. Donc je ne demande pas de justifier mais d'expliquer le pourquoi du thème. Et je suis curieux de savoir comment on en arrive à associer la sécabilité et la rotation. Je trouve que c'est intéressant, pile poil dans l'exercice, mais pour "avoir des billes", je me demande comment on en arrive là. En l'absence de "billes", j'ai rétorqué ce qui m'est venu : les trous noirs, les champs. On peut aussi interroger les limites du concept : un objet dont la rotation est indécidable, comme un champ quantique, est-il inclus dans la définition ? Jusqu'où s'applique le concept de "couper" ? Peut-il être appliqué à une émotion ? A un moment ? Mea culpa pour mon coup de gueule, j’extériorise vite les émotions négatives lorsqu'elles se présentent. Merci de jouer le jeu et de participer.
-
Il faut maintenant fournir le mode d'emploi d'une conversation ? Alors, oui. Si je fais l'effort de faire 4 phrases pour 4 arguments, c'est effectivement dans le but qu'il y ait une réponse pour chaque thème adressé. Toujours cette méthode enfantine de pinailler sur le détail au lieu de se retrousser les manches. Au lieu de négocier combien d'arguments proposer entre 0 et 4, il est plus simple de juste répondre autre chose que "non c'est faux". Et une fois qu'on voit que "non c'est faux" ca suffit pas, demander "combien de mots je dois utiliser ?" n'est qu'une autre façon de ne pas répondre. Ni là, ni pour autre chose, il n'y a jamais rien qui émane du théropode fluo. Et franchement, ca commence à être lourdingue de se transformer en garde chiourme, juste pour avoir une interaction standard. Une discussion n'est pas censée être ce combat stérile de celui qui dit le moins de choses utiles et le plus de bêtises. Je suis toujours prêt à reconnaitre mon erreur, à condition qu'on me dise plus que "c'est faux". A cette phrase je répond "c'est vrai" et on continue éternellement, c'est stérile. RAPPEL : c'est un jeu de rhétorique bancale. Mais il faut de la rhétorique quand même !
-
Me voila tout convaincu par la puissance de ce raisonnement supérieur. On peut dire que j'en apprend des choses ! Tous ces arguments rien que pour moi, j'ai bien fait de créer ce topic. Une seconde, j'attrape mon calepin pour prendre des notes sinon j'oublierais surement un détail parmi cette vaste étendue rhétorique qui est posée devant moi.
-
La première espèce qui évite une extinction de masse ?
ashaku a répondu à un(e) sujet de ashaku dans Philosophie
Si j'en crois les cours de physique, il y a à l'origine (les instants suivants le big bang dans la théorie du big bang) quelque chose de simple : une soupe uniforme. Au fil du temps, "ce qui existe" n'a cessé de se complexifier. D'abord par la matière, qui commence par des particules, les protons épousent les électrons pour former des atomes (certains font des sorties en couples pour donner des isotopes) et on obtient un peu de complexité par rapport à la soupe uniforme. Et puis la gravité fait se regrouper les atomes en nuages qui s’effondrent pour former des étoiles. Les étoiles forment des atomes lourds et apportent encore un cran de complexité dans "ce qui existe". Cette matière riche va pouvoir former des étoiles encore plus dingue et aussi des planètes. Et à ce moment, la matière s'est considérablement complexifiée depuis l'époque du seul atome d'hydrogène. On a des étoiles, on a des planètes, on a des astéroïdes, de l'eau, du carbone, on mélange et ... ADN se pointe au bout d'un moment. Une molécule ridiculement grande, un assemblage de matière improbable, qui se tortille et ne se contente plus de subir, il agit, transforme, jusqu'à l'arrivée de la première cellule. La complexité s'envole, la cellule sent des acides l'animer et à force de vivre les uns dans les hôtes, invente la pluricéllularité. L'organisme est là, plus que la somme de ses parties. Explosion cambrienne et la saga des espèces est en marche, l'évolution comme moteur, l'univers composé uniquement d'hydrogène est loin maintenant, on voit le chemin parcouru. Après la complexification de la matière jusqu'au vivant, après la complexification du vivant jusqu'à la conscience, quelle sera la prochaine étape ? Mais un regard en arrière me le hurle : la complexité n'a fait qu'augmenter. Il me semble bien hasardeux de pronostiquer que cela va s'arrêter. On peut éventuellement extrapoler un état si complexe pour l'univers au bout du compte qu'il retourne à l'état de soupe. Le chaos obtenu n'ayant plus forme ni consistance de par son extrême volatilité, trop de complexité, plus de structure qui tient, on retourne au zéro. Et on recommence les étapes. -
Un point théorique dans un espace euclidien n'est pas sécable, et sa rotation est possible, elle ne sera pas perceptible en revanche. Je crois qu'il n'est pas possible de couper un trou noir en deux, et pourtant ils tournent. Le champ electro-magnétique est intangible et ne peut être atteint par une opération physique comme "couper". Mais les champs tournants existent (moteur électrique). En fait, quelle démonstration (même fallacieuse, c'est le jeu de ce topic) permettrait d'énoncer que ce qui n'est pas sécable n'est pas rotatif ?
-
La première espèce qui évite une extinction de masse ?
ashaku a répondu à un(e) sujet de ashaku dans Philosophie
Tu es vraiment le roi du sophisme et de la superficialité ("l'herbe pousse sur le béton donc youpi, aucun problème", quel absence de recul !). Tu affirmes beaucoup de choses gratuites sans même connaître le sujet : les extinctions et le vivant en général (va au Sahara voir si l'herbe pousse une fois que la désertification s'est opérée). Oui les arbres faisant des racines transforment les sols, font des pièges à CO² qui déclenchent une glaciation, qui déclenche un recul des océans qui provoque une extinction de 75 à 80% des espèces. Le couvert végétal investissant les terres vierges amènera aussi à une anoxie des océans destructrice pour le vivant. Oui les premiers organismes faisant de la photosynthèse ont saturé l'eau et l'air d'oxygène, poison pour le vivant qui s'était développé jusque là sans ce gaz. On estime à 90% les pertes de cette grande oxydation. Tu devrais un peu moins accuser les autres de dire ce qu'ils ne disent pas et te relire avant de poster. En l'état, ta participation est inutilisable. Je vais répéter pour la vingtième fois le propos : les individus vivants sont des sacs chimiques. Lorsqu'ils sont efficaces, ils prolifèrent. Et leur activité chimique se produit alors massivement, modifiant le conditions de vie et déclenchant la mort en masse. On l'a observé et documenté, ce n'est pas un "peut-être", c'est péremptoire. Après les arbres et autres espèces vivantes, c'est homo sapiens qui réalise aujourd'hui ce scénario de prolifération. Mais homo sapiens s’enorgueillit d'être différent d'un arbre ou d'une bactérie. Il pense. L'avenir racontera-t-il que homo sapiens est bien différent des arbres, qu'il a utilisé sa pensée et modifié sa trajectoire mortifère ? Ou bien que homo sapiens n'était pas si différent d'un arbre en fin de compte et a reproduit le même schéma. J'ai fourni des exemples : un fumeur qui veut arrêter. C'est le même combat : la notion que fumer tue est connue, mais l'organisme est intoxiqué. Quel choix résulte de ce conflit ? Est ce que c'est le corps ou l'esprit qui l'emporte ? Maintenant, tu peux m'accuser de vouloir la perte humaine, me ressortir tous les arguments climato-sceptiques que tu veux, affabuler sur un retour arrière qui n'a jamais été mentionné par personne sauf toi, tourner ce sujet sérieux en ridicule, ça te regarde. Tu sera juge en fonction du résultat de la qualité de tes interactions avec tes pairs. Si tu ne partages pas ma vue sur la dynamique humaine sur notre planète, c'est ton droit le plus absolu, mais pourrais-tu stp argumenter rationnellement au lieu de m'attaquer sur des bases imaginaires ? Cette discussion ne s'en déroulera que mieux. Et la même astuce fonctionnera d'ailleurs pour toutes tes futures conversations. Par exemple la prochaine fois qu'il te prend l'envie d'écrire "tu pense qu'il faut ..., tu juges que ...", tu pourrais par honnêteté citer le passage écrit par moi qui t'a mis cette idée dans la tête, histoire qu'on débrief. On analysera le sujet, le verbe et le complément pour déterminer si j'utilise l'impératif, donne des ordres ou impose ma vision comme tu le répètes à chacune de tes interventions.