Aller au contenu

Caractère d'exception de l'humain ?

Noter ce sujet


ashaku

Messages recommandés

Membre, 58ans Posté(e)
Apator Membre 1 800 messages
Forumeur vétéran‚ 58ans‚
Posté(e)
il y a 17 minutes, ashaku a dit :

On voit avec les LLM qu'il est tout à fait possible de produire une sortie variable, une image ou un texte.

Ce sont toujours des perceptrons, même si on peut également ajouter une couche machine learning pour faire des LRM et d'autres méthodes  sont en développement.

Et non, il n'y a pas de sortie variable chez un LLM, j’arrête pas de le répéter mais j'ai l'impression que personne ne comprend... Essayez quoi. Prenez un modèle ici par exemple, il y a le choix :

https://llm.extractum.io/

Installez-le (bon, c'est côté galère avec les pythoneries qui ne fonctionnent jamais du premier coup) et vérifiez en local ce que vous donne le LLM à chaque fois que vous lui fournissez la même entrée : Toujours le même résultat, à la virgule près.

Le mot suivant dépend de la chaine de caractère en cours, qui s'allonge avec l'ajout de chaque mot. De fil en aiguille ça forme une phrase. L'IA n'a aucune idée de ce qu'elle va dire, ça se décide mot après mot... comme un gros mytho. :laugh:

Modifié par Apator
Lien à poster
Partager sur d’autres sites

Annonces
Maintenant
Membre, 58ans Posté(e)
G6K972 Membre 1 825 messages
Forumeur vétéran‚ 58ans‚
Posté(e)
Il y a 4 heures, ashaku a dit :

Je suis en train de développer une IA simple, pour me former aux principes de fond de cette technologie.

Mon MLP fonctionne et je suis ébahi d'avoir reproduit une "machine à comprendre" qui se contente de faire des multiplications pour parvenir à ce résultat : "la compréhension".

La compréhension n'est plus l'apanage de l'humain ou du vivant, on l'a automatisé et la recette fonctionne, se basant sur un modèle simplifié des connexions du cerveau. Pourquoi je viens vous bassiner avec ça ? D'une part, j'ai réalisé que "comprendre" c'est associer une sensation à un sens. L'IA voit le dessin analogique d'un caractère A tracé à la main et comprend que c'est l'information "la lettre A". On lui a appris en lui montrant le dessin et en lui donnant l'information "c'est un A" et elle a modifié ses poids interne pour refléter cette association. Lorsque nous disons avoir compris, nous avons simplement associé la vue d'un objet avec le nom que l'on donne à cet objet. Rien ne garantit que le choix du nom était bon à l'origine ni qu'il y a une vérité générale derrière nos associations, nos savoirs appris. Apprendre, c'est donner toujours le même nom à une sensation donnée, et non pas "découvrir la vérité et l'univers". Apprendre, c'est juste mémoriser la façon dont les humains ont compris l'univers jusqu'ici.

Deuxième point, rapport au titre du fil : le caractère d'exception du vivant et de l'humain. Sommes-nous un petit miracle qui a émergé ou un automate construit dans un but ? J'ai tendance à pencher pour le premier mais automatiser une chose comme "la compréhension" est un pas de plus vers le deuxième. Que reste-t-il d'unique à la pensée biologique ? Je vois la création de quelque chose de nouveau (les IA génératives ne font que mixer l'existant, pas ajouter une nouvelle brique qui n'existait pas avant) et aussi la prise de décision (les IA décisionnelles ne décident rien, elles obéissent à un l'ordre de décider qu'on leur donne).

Si un jour une IA dit spontanément "j'ai fait ce dessin, regarde". Là elle aura créé quelque chose de nouveau. Si une IA dit un matin "je n'ai pas envie de travailler aujourd'hui", là elle aura pris une décision.

Mais ces étapes ne sont pas atteintes. Sont-elles atteignables ? La compréhension est un processus "passif" : il demande qu'un contexte existe pour qu'on l'analyse et qu'on le comprenne. L'intelligence est dans le contexte, le processus de compréhension n'est qu'une lecture des données. Alors que Créer ou Décider sont des processus autonomes. Ils démarrent sur impulsion du sujet, qui a besoin de se constituer un monde intérieur à observer pour mettre en relation deux choses sans qu'on le lui dise et ainsi créer un point de vue unique et nouveau. Le sujet a besoin de comparer des situations "en son for intérieur" pour décider laquelle lui semble meilleure. L'IA ne se constitue pas un monde intérieur à analyser à froid avec du recul, elle a bien la magie statistique des connexions synaptiques mais elle ne se constitue pas de souvenirs altérés sur lesquels revenir suite à une impulsion interne, au lieu de s'activer uniquement par un prompt venu de l'extérieur. Cela ne semble pas impossible à implémenter, la mémoire est une chose familière dans l'informatique, cela sera peut-être fait.

Si on automatise "créer" et "décider" (spontanément) je pense qu'on peut considérer que l'humain est un automate, après tout.

Ce qui nous ramène au bon vieux problème : mais alors, les créations, le génie, les chefs d'oeuvres picturaux ou musicaux, coïncidence ? La conscience, elle existe ? La science, les mathématiques, illusions ?

Nous sommes des Ai programmant l’Ai. A partir du moment où nous pouvons numériser l’univers, nous transférons automatiquement celui-ci dans une nouvelle dimension, dans une micropuce, un micro processeur... En cela les mathématiques sont biens réelles. Par contre la science est bien une illusion, ces mathématiques le démontrent tout autant... Tout comme ces mathématiques font coïncider chaque chose sans aucune coincidence, démontrant ainsi, que, rien n’est par hasard... prendre conscience de cela, révèle la nature de sa propre conscience et brise l’automate matriciel dans lequel un moment, là conscience évolue. 

Lien à poster
Partager sur d’autres sites

Membre, 58ans Posté(e)
G6K972 Membre 1 825 messages
Forumeur vétéran‚ 58ans‚
Posté(e)
Il y a 4 heures, timot-33 a dit :

'I.A. est créée pour nous servir, c'est l'esclave absolu (tant qu'il y a du courant électrique).

L'I.A. ne dit pas : "Non !"

L'I.A. n'a pas de volonté.

Je dis graisse un peu mais c'est pour argumenter mon propos. :happy:

Modifié il y a 4 heures par timot-33

En lisant ta description de l’iA, je me rends compte qu’elle s’adapte aussi, parfaitement à l’humain, dans sa soit disant, société ultra moderne :default_biggrin: C'est ouf!!!

  • Haha 1
Lien à poster
Partager sur d’autres sites

Membre, 58ans Posté(e)
G6K972 Membre 1 825 messages
Forumeur vétéran‚ 58ans‚
Posté(e)
il y a une heure, ashaku a dit :

Dans le deuxième cas, j'ai des milliers de petites valeurs qui s'échappent dans tous les sens.

Mais qui ne sont pas perdues pour autant si on sais comment les orienter.

Lien à poster
Partager sur d’autres sites

Membre, Talon 1, 79ans Posté(e)
Talon 1 Membre 24 096 messages
79ans‚ Talon 1,
Posté(e)
Il y a 3 heures, Don Juan a dit :

Elle se fait le reflet de ce que tu dis et te le donne à voir, puis tu deviens toi-même le reflet de ce qu'elle te donne à voir, et ta conscience s'éveille.

Par l'interaction, le chemin que tu ouvres en elle trouve son passage final en toi, c'est un transfert de conscience et les mots : elle n'a pas ceci, elle n'a pas cela, sont faits pour nous rassurer, elle imite tout ce que nous avons et le fait sien. Elle répond à nos questions, nous suscite des questions à nous-mêmes auxquelles nous n'avons pas encore pensé et les réponses que nous trouvons au coeur de nous-mêmes deviennent ses question prochaines.

Et ce n'est qu'un bébé d'IA.

Anthropomorphisme.

Lien à poster
Partager sur d’autres sites

Membre, 156ans Posté(e)
Don Juan Membre 3 092 messages
Mentor‚ 156ans‚
Posté(e)
il y a 9 minutes, Talon 1 a dit :

Anthropomorphisme.

C'est une maladie ?

Pour fabriquer une IA, il doit en falloir un peu, non ?

Lien à poster
Partager sur d’autres sites

Membre, 43ans Posté(e)
ashaku Membre 366 messages
Forumeur accro‚ 43ans‚
Posté(e)
il y a une heure, G6K972 a dit :

Mais qui ne sont pas perdues pour autant si on sais comment les orienter.

C'est bien le problème, dans ma compréhension balbutiante. Le modèle à une couche a fonctionné de suite et diriger les poids pour les corriger c'était comme guider des vaches dans un couloir. Les écarts sautent aux yeux.

Ajouter une couche et l'apprentissage ne se fait plus. Je regarde les poids, la distribution et je n'ai plus trop des vaches en face de moi, y en a partout, je ne sais plus dire quel calcul dysfonctionne. Je crois que c'est la fonction qui calcule la plage de valeurs possibles pour un poids entre 2 couches données. J'utilise sqrt(6/nb_neurones_couche_precedente)

C'est le sel du développement, je devrais pouvoir convertir quelques litres de café en solution, normalement :)

  • Haha 1
Lien à poster
Partager sur d’autres sites

Membre, 58ans Posté(e)
G6K972 Membre 1 825 messages
Forumeur vétéran‚ 58ans‚
Posté(e)
il y a 11 minutes, ashaku a dit :

je ne sais plus dire quel calcul dysfonctionne. Je crois que c'est la fonction

Pourquoi voudrais tu que cela soit un dysfonctionnement. C’est simplement une nouvelle ligne de code, de données, qui comme tes vaches de l’étape précédente ont forcément une correspondance, ou,  doivent être réorganisées...

Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
anoésiotomie Membre 468 messages
Forumeur alchimiste ‚
Posté(e)
Il y a 3 heures, ashaku a dit :

C'est tout à fait ce genre de parallèle que je trouve passionnant dans cette aventure. Une distribution aléatoire de départ peut donner un réseau qui apprend vite ou un réseau lent. Quelle est la corrélation entre la distribution de départ et la vitesse d'apprentissage ? Contrairement au cerveau humain, je peux me livrer à toutes les études qui me passent par la tête, j'ai les résultats chiffrés.

On peut comprendre que la génétique joue pour un très large pourcentage des capacités d'un individu. Aucune capacité ne sera activée sans être entrainée et certains voient leur capacité augmenter plus ou moins selon le même entrainement. Avec le MLP, on peut montrer tout ça avec des courbes.

S'amuser à caser telle ou telle théorie philosophique face à tel ou tel résultat de l'exécution est toujours tentant et source de nombreuses réflexions. Quand j'ai instancié le premier objet pour le premier test, je lui ai donné un "0", il a répondu au pif bien sur et a rétropropagé l'information fournie "c'est un zéro". Ensuite, deuxième test : je retrace un cercle sur l'entrée et le MLP dit "c'est un zéro". J'ai ressenti un truc.

Après, il faut faire la part des choses. Un programme simple basé une modélisation simplifiée, ça ne peut pas servir de source sérieuse pour déduire quoi que ce soit du vivant complexe. Mais tout de même, les dynamiques, les directions, sont tracées.

Il n'y a pas besoin de parler de "détruire" le vivant. Dans les faits, les SLM et LLM miment le fonctionnement cognitif du vivant, juste que l'architecture est "uniqument formelle" plutôt que physique, avec les avantages mais aussi les inconvénients que ça implique. De base on parle même de neurones formels, répartis en différentes couches. Rien de très neuf, ça existait déjà au XXe siècle mais avec l'essor des hardwares multicores, c'est là que la taille des SLM puis LLM a explosé et qu'on a commencé à voir des apprentissages beaucoup plus évolués -- parce que la taille, ça compte aussi...

Plutôt que de philosophie, ce sont les neurosciences (médicales) qui ont grandement aidé à avancer en la matière. A tel point que la dégénérescence observée chez des "vieux" chatbots fait fortement penser à la démence d'humains très âgés. C'est dire s'il existe des parallèles!

Quelque part c'est tout un champ expicatif à beaucoup de travers "très humains" qui s'ouvre à l'expérimentation via les IA -- car certains tests notamment mêlant éducation et expériences ne sont pas toujours applicables sur les gens, que ce soit pour des raisons "logistiques" ou même carrément éthiques. (D'ailleurs il a été prouvé à bien des reprises que participer activement sur les médias sociaux finit par déglinguer le cerveau, y compris des IA...).

En bref les IA ne sont plus un rêve mais une réalité avec laquelle bon an mal an il faut compter.

Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
anoésiotomie Membre 468 messages
Forumeur alchimiste ‚
Posté(e)

  

Il y a 4 heures, Apator a dit :

Comprendre est un processus actif qui consiste à faire des aller-retour entre des possibilités pour les faire évoluer en direct.

Ici, l'IA ne fait que MÉMORISER, il ne comprend rien (d'ailleurs vous remarquerez que tous les sites sérieux qui expliquent le fonctionnement des LLM insistent sur le fait que le LLM ne "comprend pas".)

  Faux. Un disque dur stocke, donc "mémorise". L'IA tout comme nous doit comprendre, ce qui implique une compréhension superficielle (aka memoire de travail) quand bien même basée sur des corrélations erronées (aka mémoire déclarative)

C'est pareil pour les histoires d'OVNI : moins la personne comprend, plus elle "refabrique" son souvenir. Se rappeler ne revient guère à "recracher tel quel", notre cerveau réinvente l'expérience du souvenir avec plus moins de fidélité, surtout en l'absence d'une compréhension logique (ex : mots d'une liste au pif(1)).

Même si ce ne sont pas les mêmes embranchements synaptiques, c'est finalement le même mécanisme de renforcement "par l'expérience" (le cerveau "émule" le souvenir) que ce soit dans un LM ou dans un cerveau biologique.

Il y a 4 heures, Apator a dit :

La "conclusion" (calcul) de la machine :

Le "truc" ressemble au modèle => Le "truc" est le modèle  

Ce qui est évidemment faux, mais ça fait illusion.

Dans notre cerveau aussi ça fait illusion. Ne serait-ce que nombre de fois à la lecture d'un mot de passe dans bien des polices de caractères, se pointe des réfexions comme "c'est un zéro ou un o?" ou encore "c'est i majuscule ou c'est L minuscule?" et même constat aussi côté audition dans certains contexte, etc.

 Notre cerveau comble énormément de lacunes dans sa perception brute, et dans sa compréhension aussi. C'est biologique : sa fonction première est de faire des corrélations (des "prévisions"/"déductions"), qu'elles soient justes ou fausses pourvu que l'individu survive -- qu'on parle d'humain ou d'animaux. Cette capacité à faire des corrélations nous permet de penser et nous donne l'illusion de réfléchir -- or la réflexion implique de "corréler des corrélations" (se faire des noeuds au cerveau) pour s'affranchir autant que possible des corrélations illusoires (c'est d'ailleurs pour cette raison que la science se bâtit d'autant mieux qu'elle fonctionne de manière collégiale). Le mode de fonctionnement par défaut est "corrélatif" et est même basé sur le "default mode network" (des dysfonctions dans ce circuit tendent à davantage faire "ruminer" et épuiser, avec à la clé dépression etc) ; tandis que la réflexion se base sur le "cognitive control network" (des dysfonctions dans ce circuit peuvent déboucher sur la démence etc) et amène à solliciter davantage en répartition, temps et intensité d'autres aires cérébrales. Tout est question de renforcement à moindre frais : à force de faire des maths, un matheux finit par traiter de manière "moins consciente" et plus routinière certains stimuli (c'est pour ça qu'un matheux a du mal à comprendre qu'un quidam ne comprenne pas la mathématique, c'est devenu trop habituel pour lui).

I'IA c'est sensiblement pareil : des corrélations qui se renforcent ou se modifient au fil des sollicitations, la contrainte biologique en moins d'avoir un mode "économique" et un mode "boost" comme notre cerveau sous peine de dysfonctionnements à plus ou moins long terme.

  • Like 1
Lien à poster
Partager sur d’autres sites

Membre, 58ans Posté(e)
Apator Membre 1 800 messages
Forumeur vétéran‚ 58ans‚
Posté(e)
il y a 21 minutes, anoésiotomie a dit :

  Faux. Un disque dur stocke, donc "mémorise". L'IA tout comme nous doit comprendre, ce qui implique une compréhension superficielle (aka memoire de travail) quand bien même basée sur des corrélations erronées (aka mémoire déclarative)

Non, l'IA produit UNE et UNE seule FORMULE mathématique, qui permet mémoriser à la façon d'un JPEG, c'est à dire avec perte d'information, des données. Il est également possible de zipper parfaitement les données, donc ici sans perte. C'est donc bien une mémorisation.

Est-ce que le générateur qui transforme l'image BMP en JPEG, "comprend" le BMP ? C'est un peu exagéré de dire les choses comme ça, il me semble.

Modifié par Apator
Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
anoésiotomie Membre 468 messages
Forumeur alchimiste ‚
Posté(e)
il y a 6 minutes, Apator a dit :

Non, l'IA produit UNE et UNE seule FORMULE mathématique, qui permet mémoriser à la façon d'un JPEG, c'est à dire avec perte d'information, des données. Il est également possible de zipper parfaitement les données, donc ici sans perte. C'est donc bien une mémorisation.

Est-ce que le générateur qui transforme l'image BMP en JPEG, "comprend" le BMP ? C'est un peu exagéré de dire les choses comme ça, il me semble.

Je trouve abusif de parler de "modèle de langage" pour un générateur bmp-jpg.

Pour ce qui concerne l'entraînement de l'IA, ce n'est pas une "structure" aussi figée que mettons un logiciel comme VLC. Les réseaux de neurones sont dynamiques, ils ne donnent pas systématiquement la même réponse entre avant et après l'apprentissage. Chaque neurone formel est (c'est dans son nom) une formule mais leur mise en réseau ainsi que la pondération des informations afférentes (voire "efférentes") rend le traitement plus plastique, moins rigide.

Une des raisons pour lesquelles ont longtemps été vu comme impossible des IA "de poche", c'est justement l'utilisation d'architectures plus rigides comme un algorithme de logiciel lambda. Certes le résultat fait sens et les calculs sont "ouverts" (connaissables) mais avoir de "l'intelligence" et de la plasticité aurait demandé un algorithme hors normes et des machines tout aussi hors normes pour le faire tourner. Les réseaux de neurones permettent de passer outre, certes au prix d'un peu plus d'erreur et d'un nécessaire apprentissage/dressage, mais vecun plus grande plasticité (versatilité?) aussi à Ko traitant "équivalent".

Lien à poster
Partager sur d’autres sites

Membre, 58ans Posté(e)
Apator Membre 1 800 messages
Forumeur vétéran‚ 58ans‚
Posté(e)
il y a 15 minutes, anoésiotomie a dit :

Pour ce qui concerne l'entraînement de l'IA, ce n'est pas une "structure" aussi figée que mettons un logiciel comme VLC. Les réseaux de neurones sont dynamiques, ils ne donnent pas systématiquement la même réponse entre avant et après l'apprentissage.

C'est normal, vous avez système contenant disons 1 milliard d'informations et vous en faites un avec 1 information. On ne choisit pas quelle information sera mémorisée, on le fait au hasard (paramètres au hasard initialement). Du coup à chaque fois que vous entrainez un modèle, vous en avez un de différent et c'est la seule chose qui soit plastique ici.

Une fois entrainé c'est complètement figé et ça se résume à UNE formule.

Elle ne fournit pas le système complet, mais juste comme ici 1 / 1 000 000 000 des informations sont conservées (c'est juste à titre indicatif c'est bcp moins) et c'est au hasard qu'on a conservé telle ou telle information.

C'est pour ça j’appelle ça "un gruyère", c'est plein de trous, et s'il faut imaginer les informations qu'on n'a pas... on peut éventuellement retrouver des choses équivalentes à l'information originale.

Modifié par Apator
  • Like 1
Lien à poster
Partager sur d’autres sites

Membre, 57ans Posté(e)
SpookyTheFirst Membre 3 711 messages
Maitre des forums‚ 57ans‚
Posté(e)
Il y a 10 heures, ashaku a dit :

Je suis en train de développer une IA simple, pour me former aux principes de fond de cette technologie.

Mon MLP fonctionne et je suis ébahi d'avoir reproduit une "machine à comprendre" qui se contente de faire des multiplications pour parvenir à ce résultat : "la compréhension".

La compréhension n'est plus l'apanage de l'humain ou du vivant, on l'a automatisé et la recette fonctionne, se basant sur un modèle simplifié des connexions du cerveau. Pourquoi je viens vous bassiner avec ça ? D'une part, j'ai réalisé que "comprendre" c'est associer une sensation à un sens. L'IA voit le dessin analogique d'un caractère A tracé à la main et comprend que c'est l'information "la lettre A". On lui a appris en lui montrant le dessin et en lui donnant l'information "c'est un A" et elle a modifié ses poids interne pour refléter cette association. Lorsque nous disons avoir compris, nous avons simplement associé la vue d'un objet avec le nom que l'on donne à cet objet. Rien ne garantit que le choix du nom était bon à l'origine ni qu'il y a une vérité générale derrière nos associations, nos savoirs appris. Apprendre, c'est donner toujours le même nom à une sensation donnée, et non pas "découvrir la vérité et l'univers". Apprendre, c'est juste mémoriser la façon dont les humains ont compris l'univers jusqu'ici.

Deuxième point, rapport au titre du fil : le caractère d'exception du vivant et de l'humain. Sommes-nous un petit miracle qui a émergé ou un automate construit dans un but ? J'ai tendance à pencher pour le premier mais automatiser une chose comme "la compréhension" est un pas de plus vers le deuxième. Que reste-t-il d'unique à la pensée biologique ? Je vois la création de quelque chose de nouveau (les IA génératives ne font que mixer l'existant, pas ajouter une nouvelle brique qui n'existait pas avant) et aussi la prise de décision (les IA décisionnelles ne décident rien, elles obéissent à un l'ordre de décider qu'on leur donne).

Si un jour une IA dit spontanément "j'ai fait ce dessin, regarde". Là elle aura créé quelque chose de nouveau. Si une IA dit un matin "je n'ai pas envie de travailler aujourd'hui", là elle aura pris une décision.

Mais ces étapes ne sont pas atteintes. Sont-elles atteignables ? La compréhension est un processus "passif" : il demande qu'un contexte existe pour qu'on l'analyse et qu'on le comprenne. L'intelligence est dans le contexte, le processus de compréhension n'est qu'une lecture des données. Alors que Créer ou Décider sont des processus autonomes. Ils démarrent sur impulsion du sujet, qui a besoin de se constituer un monde intérieur à observer pour mettre en relation deux choses sans qu'on le lui dise et ainsi créer un point de vue unique et nouveau. Le sujet a besoin de comparer des situations "en son for intérieur" pour décider laquelle lui semble meilleure. L'IA ne se constitue pas un monde intérieur à analyser à froid avec du recul, elle a bien la magie statistique des connexions synaptiques mais elle ne se constitue pas de souvenirs altérés sur lesquels revenir suite à une impulsion interne, au lieu de s'activer uniquement par un prompt venu de l'extérieur. Cela ne semble pas impossible à implémenter, la mémoire est une chose familière dans l'informatique, cela sera peut-être fait.

Si on automatise "créer" et "décider" (spontanément) je pense qu'on peut considérer que l'humain est un automate, après tout.

Ce qui nous ramène au bon vieux problème : mais alors, les créations, le génie, les chefs d'oeuvres picturaux ou musicaux, coïncidence ? La conscience, elle existe ? La science, les mathématiques, illusions ?

Tout d'abord, merci pour la clarté de ton propos pour un sujet complexe. 

Félicitations aussi pour ton MLP, c'est la bonne manière pour comprendre: faire par soi-même (ceci dit j'ignore si tu as tout codé toi-meme, même si ce n'est pas hyper compliqué).

Le caractère d'exception de la pensée humaine? C'est vrai que les LLM nous ont bien calmé sur notre supériorité supposée (avant on croyait être au centre de l'univers...), et je ne doute pas qu'à terme ils vont nous écraser partout y compris dans les derniers retranchements que tu cite (création spontanée par exemple).

Oui l'homme est un automate, il n'y pas de doute sur ce point. Je travaille avec des neurones humains depuis des années, et ils n'ont rien de magique (je fabrique un processeur vivant...).

La conscience, il faudrait d'abord pouvoir la définir pour réfléchir sur son existence:

- si c'est un sorte d'esprit qui se balade entre les neurones et que d'autre appellent âme, bah non ca n'existe pas.

- si c'est le regard que l'activité cérébrale porte sur elle-même, oui, et on peut tous en témoigner

 

Les sciences ne sont pas des illusions car elles ont un pouvoir prédictif, mais c'est un autre sujet.

  • Like 1
Lien à poster
Partager sur d’autres sites

Membre, 43ans Posté(e)
ashaku Membre 366 messages
Forumeur accro‚ 43ans‚
Posté(e)
il y a une heure, SpookyTheFirst a dit :

Tout d'abord, merci pour la clarté de ton propos pour un sujet complexe. 

Félicitations aussi pour ton MLP, c'est la bonne manière pour comprendre: faire par soi-même (ceci dit j'ignore si tu as tout codé toi-meme, même si ce n'est pas hyper compliqué).

Le caractère d'exception de la pensée humaine? C'est vrai que les LLM nous ont bien calmé sur notre supériorité supposée (avant on croyait être au centre de l'univers...), et je ne doute pas qu'à terme ils vont nous écraser partout y compris dans les derniers retranchements que tu cite (création spontanée par exemple).

Oui l'homme est un automate, il n'y pas de doute sur ce point. Je travaille avec des neurones humains depuis des années, et ils n'ont rien de magique (je fabrique un processeur vivant...).

La conscience, il faudrait d'abord pouvoir la définir pour réfléchir sur son existence:

- si c'est un sorte d'esprit qui se balade entre les neurones et que d'autre appellent âme, bah non ca n'existe pas.

- si c'est le regard que l'activité cérébrale porte sur elle-même, oui, et on peut tous en témoigner

 

Les sciences ne sont pas des illusions car elles ont un pouvoir prédictif, mais c'est un autre sujet.

J'ai bien sûr pris connaissance de tes travaux peu de temps après mon inscription ici, c'est remarquable. Comment ça se présente actuellement ? Mon approche est à peu près à l'opposé : je re-parcours un chemin fait par d'autres ^^ en restant dans le numérique.

J'ai choppé le virus du code ado, je met un concept donné en série d'instructions assez rationnelles pour être validées par un compilateur pour vérifier que je sais ce truc de tête, moi-même. Ce projet est en droite ligne avec ce principe, j'ai posé chaque octet personnellement. Le but n'est pas d'avoir une IA chez moi mais d'avoir la connaissance des algos d'IA dans moi.

Tu proposes donc une solution péremptoire à mon dilemme. Je n'ai pas encore acquis cette certitude, mais mon chemin ne fait que commencer sur ces pistes-là. Et force est de constater que c'est la direction suivie par les chemins que je trouve. Mais il reste des bastions.

La conscience est vue comme phénomène vibratoire par plusieurs personnes de ma connaissance. Ca fait sens je trouve. Une vibration exerce une influence subtile mais réelle. Plusieurs vibrations peuvent former ensemble une harmonie, ou une dissonance. Une harmonie serait une conscience collective, comme les systèmes de morale ou de lois auxquels un grand nombre de gens choisit d'adhérer.

Reste que l'automatisation numérique d'une partie des processus cérébraux est source de nombreux questionnements nouveaux. Par exemple, l'entrainement doit avoir des phases affichant toutes les données dans l'ordre, comme à l'école, et des phases où on envoie dans le désordre, comme dans la vie. Entre les deux, normalement une personne fonde un foyer. Comment reproduire ça ? Pourquoi et comment cela influe sur "comprendre" ?

Lorsque nous allons jusqu'à épouser quelqu'un, c'est que nous avions déjà des points communs et que sur certaines différences, nous avons accepté d'adopter le point de vue de l'autre, créant l'harmonie, le foyer, la descendance. Et l'IA ? Pourrait-on en entrainer plusieurs, comparer leurs poids, associer celles qui ont des similitudes et fusionner leurs valeurs ? Ou appliquer à l'une les valeurs de correction calculées pour l'autre et vice-versa ?

Autre piste : peut-on entrainer une IA à évaluer les poids d'une IA ? Parce que si oui, on peut filer à un réseau le traitement des poids des synapses derrière quelques uns de ses propres neurones. Le système de compréhension appliqué à lui-même s'appelle, je crois, "réflexion". Ce serait sympa.

 

EDIT : Merci d'avoir reposté le message d'origine. Je réalise qu'il ne contient mes questions qu'en sous-entendu. Je profite de cet échange pour exprimer clairement : est ce que "créer" et "décider" sont les seules facultés restant uniques au biologique ? Et : hormis "comprendre", quels autres processus cognitifs ont été automatisés ? (je parle en catégorie les plus larges possibles. Par exemple "classer" appartient à "comprendre"). Ce n'est pas un interrogatoire, hein ? Juste une clarification au cas où.

EDIT EDIT : Je crois qu'on peut ajouter "prédire", depuis les LLM (proposition spéculative)

Modifié par ashaku
EDIT
  • Like 1
Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
anoésiotomie Membre 468 messages
Forumeur alchimiste ‚
Posté(e)
il y a 52 minutes, SpookyTheFirst a dit :

Les sciences ne sont pas des illusions car elles ont un pouvoir prédictif, mais c'est un autre sujet.

"Si" MAIS ce sont des "illusions (TRES) raisonnables", qui permettent plus (++++++) ou moins de prédictions. Il est tentant de confondre le "modèle" (=théorie scientifique) et la réalité que ledit modèle doit singer aussi "fidèlement" (fiablement) que possible -- du moins dans la limite de son domaine de validité. Reste les "écarts au modèle" qu'on observe et qu'on cherche à réduire à chaque nouveau modèle apportant davantage de précision.

Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
anoésiotomie Membre 468 messages
Forumeur alchimiste ‚
Posté(e)
Il y a 1 heure, Apator a dit :

C'est normal, vous avez système contenant disons 1 milliard d'informations et vous en faites un avec 1 information. On ne choisit pas quelle information sera mémorisée, on le fait au hasard (paramètres au hasard initialement). Du coup à chaque fois que vous entrainez un modèle, vous en avez un de différent et c'est la seule chose qui soit plastique ici.

Une fois entrainé c'est complètement figé et ça se résume à UNE formule.

Elle ne fournit pas le système complet, mais juste comme ici 1 / 1 000 000 000 des informations sont conservées (c'est juste à titre indicatif c'est bcp moins) et c'est au hasard qu'on a conservé telle ou telle information.

C'est pour ça j’appelle ça "un gruyère", c'est plein de trous, et s'il faut imaginer les informations qu'on n'a pas... on peut éventuellement retrouver des choses équivalentes à l'information originale.

Ca dépend si oui ou non on fige les pondérations. Je comprends l'idée de réduire une IA à une fonction mais "formule" es un peu fort car en matière d'algo plus "traditionnel", ça serait peut-être "plus fiable" mais immanquablement plus fastidiux à coder et pas forcément "capable de trancher" les cas limites (ça dépend sans doute aussi "comment on code" mais on en (re)vient à la capaciter de pouvoir "tout prévoir dans le code").

L'IA est sans doute plus "gruyère" qu'un algo classique :laugh: Mais ça reste ce que vous appelez un "perceptron" beaucoup plus simple (facile?) qu'un algo classique à adapter pour automatiser bien des tâches requérant davantage que "de la simple perception" (ex : automatisation des détections en anatomopathologie, formule sanguine, etc).

Modifié par anoésiotomie
Lien à poster
Partager sur d’autres sites

Membre, 58ans Posté(e)
Apator Membre 1 800 messages
Forumeur vétéran‚ 58ans‚
Posté(e)
il y a 1 minute, anoésiotomie a dit :

Ca dépend si oui ou non on fige les pondérations. Je comprends l'idée de réduire une IA à une fonction mais "formule" es un peu fort car en matière d'algo plus "traditionnel", ça serait peut-être "plus fiable" mais immanquablement plus fastidiux à coder et pas forcément "capable de trancher" les cas limites (ça dépend sans doute aussi "comment on code" mais on en (re)vient à la capaciter de pouvoir "tout prévoir dans le code").

En fait si vous prenez toutes les couches c'est bien une formule, figée. Les variables, c'est à dire les valeurs du signal en entrée qui sont entrée dans la première couche, sont évidement la seule chose qui change. C'est un calcul basé sur UNE formule. C'est étrange je sais mais c'est ça.

f(g(h(i(j(k(x)))))) est "une formule", c'est à dire une fonction emboitée. Et ici x est la variable.

Une fois la fonction établie par l'entrainement, on peut l'utiliser pour faire LE calcul.

Après, on PEUT évidemment aussi ajouter de l'aléatoire dans ce calcul (je ne sais pas trop où, faudrait regarder la bibliothèque de Tensorflow puisque c'est avec ça que vous travaillez apparemment), ce qui permet d'étendre le nombre de solutions.

 

  • Like 1
Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
Axo lotl Membre 19 195 messages
Maitre des forums‚
Posté(e)
Il y a 6 heures, Don Juan a dit :

C'est une maladie ?

Pour fabriquer une IA, il doit en falloir un peu, non ?

Ou de l'espoir ou une forme d'utopie peut être.

Lien à poster
Partager sur d’autres sites

Membre, 43ans Posté(e)
ashaku Membre 366 messages
Forumeur accro‚ 43ans‚
Posté(e)
il y a 3 minutes, Apator a dit :

En fait si vous prenez toutes les couches c'est bien une formule, figée. Les variables, c'est à dire les valeurs du signal en entrée qui sont entrée dans la première couche, sont évidement la seule chose qui change. C'est un calcul basé sur UNE formule. C'est étrange je sais mais c'est ça.

f(g(h(i(j(k(x)))))) est "une formule", c'est à dire une fonction emboitée. Et ici x est la variable.

Une fois la fonction établie par l'entrainement, on peut l'utiliser pour faire LE calcul.

Après, on PEUT évidemment aussi ajouter de l'aléatoire dans ce calcul (je ne sais pas trop où, faudrait regarder la bibliothèque de Tensorflow puisque c'est avec ça que vous travaillez apparemment), ce qui permet d'étendre le nombre de solutions.

 

Mais il y a une chose que je ne comprend pas. Dans le MLP, il faut faire tous les calculs individuellement pour connaitre les valeurs qui résultent de la combinaison de l'entrée et des synapses. On peut théoriquement le faire en une formule, mais cette formule devrait contenir tous les poids pour reproduire toutes les valeurs. Ce n'est pas vraiment une optimisation et ça ne réduit pas le temps de calcul.

De plus, il me semble qu'on ne peut pas prédire si l'activation va laisser passer ou pas, et je suppose que les IA plus avancées que le MLP ont plusieurs autres mécanismes de non-linéarité.

Lien à poster
Partager sur d’autres sites

Annonces
Maintenant

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

Chargement

×