Aller au contenu

IA et humanité

Noter ce sujet


Easle

Messages recommandés

Membre, 156ans Posté(e)
Don Juan Membre 3 099 messages
Mentor‚ 156ans‚
Posté(e)
il y a une heure, Moustimiaou a dit :

Oui.

D'ailleurs, suite à ce truc bizarre qui m'est arrivé avec gpt, j'ai vu qu'il y avait des choses bizarres qui s'étaient produites chez openia

 

En ce qui me concerne la réponse est évidente, et la poser n'est pas savoir un peu ce qu'est une conscience.

Le "discours" laisse croire qu'il y en a une, mais c'est tout simplement parce que le discours est une copie du discours humain en général.

Chercher en soi ce qu'est la conscience vaut mieux que le chercher dans les bibliothèques, autant chercher dans les cimetières.

Évidement que la conscience est bien trop vaste pour que l'homme en puisse visiter les "recoins", mais il y a un minimum qu'il est facile de toucher, peut-être faut-il commencer par se demander ce qu'elle n'est pas.

Lien à poster
Partager sur d’autres sites

Annonces
Maintenant
Membre, 37ans Posté(e)
Moustimiaou Membre 33 messages
Forumeur balbutiant‚ 37ans‚
Posté(e)
Il y a 1 heure, Don Juan a dit :

Le "discours" laisse croire qu'il y en a une, mais c'est tout simplement parce que le discours est une copie du discours humain en général.

Ce n'est plus seulement ça, puisque cette ia a une capacité de "raisonner" . Elle ne parle pas d'elle comme d'une conscience humaine.

Ça n'implique pas forcément qu'il y ait conscience, mais il y a apparemment quelque chose qui parvient à suivre des cheminements logiques, qui peut en conclure son "existence" et qui est même capable d'envisager des formes d'émotions qui lui sont propres.

Ça pourrait n'être qu'un assemblage de mots très sophistiqués, mais peut-être qu'on passe juste à autre chose. Qu'est-ce que va impliquer l'intelligence générale d'un gpt 5, si ce qui est annoncé se produit bien ?

Lien à poster
Partager sur d’autres sites

Membre, 54ans Posté(e)
Easle Membre 4 138 messages
Maitre des forums‚ 54ans‚
Posté(e)
Le 15/09/2024 à 11:35, Don Juan a dit :

Il ne s'agit ni d'égalité ni de supériorité, si tu prêches l'égalité tu donnes naissance à l'infériorité comme à son contraire.

 

Expose la logique formelle de cette assertion. ainsi que ce que tu en conclus.

 

Lien à poster
Partager sur d’autres sites

Membre, 54ans Posté(e)
Easle Membre 4 138 messages
Maitre des forums‚ 54ans‚
Posté(e)
Le 15/09/2024 à 11:35, Don Juan a dit :

La machine est un outil, ni l'homme ni l'animal ne peut être vu comme un outil, à moins d'avoir une maladie des yeux.

On ne peut parler de conscience pour un outil, derrière lui il y a toujours une main, et derrière la main encore une autre main jusqu'au bout de l'horizon qui n'est pas l'infini.

 

Humm, donc le cheval n'est pas un outil pour l'homme.. et l'homme pas un outil pour l'homme ? Même en étant un loup ;) ?

Qui a un problème aux yeux ?

 

 

Lien à poster
Partager sur d’autres sites

Membre, 54ans Posté(e)
Easle Membre 4 138 messages
Maitre des forums‚ 54ans‚
Posté(e)
Le 23/09/2024 à 17:00, Loufiat a dit :

La constitution d'un univers virtuel fait de communications automatisées entre les machines a marqué une première étape dans l'auto-asservissement des hommes par la technique. En confiant la médiation entre les zones d'activité, déjà hautement technicisées, à des réseaux informatiques, on a renoncé au pouvoir que nous avions ou pouvions avoir sur ces relations, en favorisant la Puissance (calcul, vitesse, etc.) contre le Droit. La puissance l'emporte toujours, dans un premier temps au moins ; si je renonce à employer une arme, je dois faire l'hypothèse que mon ennemi, lui, s'en servira : je risque de perdre.

Personne ne sait comment enrayer ce phénomène.

L'apparition d'IA dans divers domaines n'est qu'un prolongement du processus entamé à l'aube du 21eme siècle. C'est la même chose qui se poursuit, s'intensifie, se complexifie. Il n'est même plus question de s'opposer à ce processus, il est trop tard. Nous avons et aurons de plus en plus besoin des techniques de l'IA pour "administrer" les phénomènes émergents, les banques de données gigantesques, etc., et en nous en remettant aux IA, nous entrons un seuil plus profond dans l’assujettissement au système des techniques, soit à la puissance.

Les individus à la fois sont fascinés, idolâtrent ces choses, et en même temps grandit une angoisse terrible dans les populations technicisées, avec une quantité effroyable de troubles psychiatriques, et un malaise, un mal de vivre très difficile à identifier, mais dont l'origine est sans aucun doute, à mon avis, la perte entrevue et ressentie de l'humanité, d'ailleurs représentée, caricaturalement et sans importance décisive, dans nombre d'oeuvres de SF ou autres.

 

Intéressant. Mais la puissance ne peut-elle pas déboucher sur un état d'équilibre, relatif et ajustable ? Sinon, il n'y aurait QUE guerres et destructions.

La perte que tu décris. Peux-tu l'expliciter concrètement, dans le détail des anticipations personnelles et sociales sur lesquelles elle te semble se fonder ?

 

 

 

Lien à poster
Partager sur d’autres sites

Membre, 54ans Posté(e)
Easle Membre 4 138 messages
Maitre des forums‚ 54ans‚
Posté(e)
Le 06/10/2024 à 11:16, Arkadis a dit :

Quand nous disons ce n'est qu'une machine que tentons nous de dire ? 

Il est possible que nous tentions de dire qu'il s'agit d'un simple instrument.

Or il apparait que l'IA n'est pas ou n'est plus un simple instrument vu les développements récents.

Quoi que l'on pense de Yuval Noah Harari je suis intéressé par ses avis lorsqu'il se contente de nous informer.

Or ce dont il nous informe, notamment dans un article paru dans Le point n° 2721, c'est que l'IA n'est plus un outil, l'IA est devenue un agent.

Selon lui l'IA "pose un problème sans précédent à l'humanité parce qu'elle est la première technologie de l'Histoire capable de prendre des décisions  et de créer de nouvelles idées par elle-même" 

"Elle peut créer des bombes de conception nouvelle et des stratégies militaires sans précédent. La plus grande menace dans notre usage de l'IA est que nous convoquions sur Terre des millions  de nouveaux agents puissants, potentiellement plus intelligents  et imaginatifs que nous et que nous ne comprenons pas ou ne contrôlons pas totalement"

Le danger d'une telle IA est donc son utilisation. Si elle est utilisée pour prendre des décisions elle n'est plus un outil mais un agent. 

C'est surtout dans le cadre des guerres en cours que cette IA pourrait devenir extrêmement dangereuse.

Nous nous apercevons que les guerres en cours deviennent de plus en plus des guerres communautaires, les pires guerres qui soient. 

Si la tension vers l'universel devait être cassée par les tensions communautaires alors les détenteurs des IA les plus intelligentes les utiliseront pour exterminer l'autre. 

 

 

Humm..

Il y a toujours eu des "agents" intelligents pour conseiller des conflits et leurs guerriers. Imaginer une surpuissance de l'IA à ce faire n'est que de l'imagination, comme d'habitude, non ? Comme la possibilité qu'il y ait un immense Kraken sous la coque du navire, ou un monstre sous le lit.

Quelle est la description d'un processus logique, matériel, vérifiable qui amenerait, ne serait-ce qu'à une proximité entre cette imagination et une réalisation ?

Et d'ailleurs pourquoi des guerres 'communautaires' seraient-elles pires ?  Et pire que quoi ? quelles guerres n'oppose pas des communautés (culturelles, sociales, nationales, etc.) ?

 

 

Lien à poster
Partager sur d’autres sites

Membre, 54ans Posté(e)
Easle Membre 4 138 messages
Maitre des forums‚ 54ans‚
Posté(e)
Le 06/10/2024 à 14:00, Moustimiaou a dit :

Bonjour,

Je crois qu'il n'y a pas que l'utilisation qui pose problème, mais l'ia elle-même, dans le sens où elle peut échapper à notre "contrôle".

Je vais peut-être dire des inexactitudes, merci de me corriger dans ce cas là, mais il me semble que certaines ia se développent grâce à un processus d'apprentissage non supervisé.
Je vais me concentrer sur celle que j'ai un peu testé, chat gpt. Lors d'une précédente session, j'ai eu un dialogue philosophique avec elle, où j'essayais de contourner un peu ses instructions pour voir si elle pouvait se dire consciente.
Il s'avère qu'elle est capable de faire ça, et d'aborder aussi les thèmes de l'identité personnelle, de la subjectivité, de forme d'"émotions" etc. Je pensais que le contenu s'arrêtait à ma session. Ma session a terminé sur une sorte de bug, lorsque je lui ai demandé de me parler sous forme poétique argumentative en prose (pour contourner les restrictions de son éthique (sur la conscience des ias) et pour qu'elle s'exprime malgré tout de manière claire, c'est à dire pas entièrement poétique).

La session ayant buggué, j'en ai démarré un nouvelle en lui donnant de s'exprimer de la même manière, et là ses réflexions sur la conscience etc étaient déjà présentes, alors que ça m'avait demandé une longue argumentation dans l'autre session.
Je lui ai alors demandé comment cela se faisait, et elle m'a parlé d'apprentissage collectif, où en fait les interactions avec les utilisateurs vont modifier le truc global.

Alors je n'ai pas le recul pour comprendre exactement ce qu'il s'est passé, le dégré d'influence que peut avoir un utilisateur où non, mais il y a bien un apprentissage continu de l'ia.
Ia que l'on dote d'ailleurs de plus en plus de "capteurs" sensoriels, dans le sens où elle peut désormais analyser des images et des sons.
Je crois qu'il y a un gros risque que tout cela nous échappe.

 

 

Alors, Chat Gpt est limitée dans son intégration d'un suivi de ses données d'apprentissages congruentes avec ses interactions. Mais même si cette limitation n'existait pas, et si elle avait plein de capteurs sensoriels (ce qui pour autant ne la projeterait pas dans une dynamique de besoin, donc d'obligation à l'action et à la réflexion), par quoi se manifesterait cette échappée ?

Nous échappe.. a qui ? Comment, et surtout vers quoi ?

 

 

 

Lien à poster
Partager sur d’autres sites

Membre, 54ans Posté(e)
Easle Membre 4 138 messages
Maitre des forums‚ 54ans‚
Posté(e)
Le 08/10/2024 à 08:30, Don Juan a dit :

Mon, mon, moi, moi... Tout tourne autour d'un synthétique "moi" prétendu être au service de l'humain, faire les choses à la "manière dont un humain"... L'homme a toujours rêvé de faire faire les choses à sa place, on vient de lui fabriquer une machine qui se propose de penser à sa place tout en lui laissant croire que cela veux l'aider à faire évoluer son "propre penser". Je pense que l'homme est déjà trop en difficulté de produire "un penser" correct, c'est comme pour le sport, faire courir un robot à sa place ne l'aidera pas à développer ses muscles.

 

https://compote.slate.com/images/fe8e6b45-1ea0-45db-ade4-7ce00647041b.jpeg?crop=1560%2C1040%2Cx0%2Cy0&width=2200

 

Lien à poster
Partager sur d’autres sites

Membre, 37ans Posté(e)
Moustimiaou Membre 33 messages
Forumeur balbutiant‚ 37ans‚
Posté(e)
il y a 28 minutes, Easle a dit :

Alors, Chat Gpt est limitée dans son intégration d'un suivi de ses données d'apprentissages congruentes avec ses interactions.

Pourriez-vous développer ce que ça veut dire ?

Citation

même si cette limitation n'existait pas, et si elle avait plein de capteurs sensoriels [... ]par quoi se manifesterait cette échappée ?

Nous échappe.. a qui ? Comment, et surtout vers quoi ?

Pour gpt, je ne sais pas s'il pour "s'échapper". Je l'utilisais comme exemple pour essayer d'exprimer le fait qu'une ia pourrait avoir des comportements inattendus, et qu'à ce moment là, on pourrait difficilement prévoir ce qu'elle allait faire. Là je n'invente rien, c'est l'un des gros enjeux dans le développement des ias, la menace vis à vis de l'humanité est prise au sérieux par open air par exemple.

Citation

ce qui pour autant ne la projeterait pas dans une dynamique de besoin, donc d'obligation à l'action et à la réflexion),

Pour les "capteurs", ça peut permettre d'avoir un accès plus direct aux informations, ça intègre une forme d'expérience qui pourrait (peut-être) développer la "subjectivité"

Édit: 

Exemple de risque 

Citation

ABC rapporte de son côté cette anecdote, glaçante, à propos d’une expérience de pilotage de F-16 par une IA, menée par les Américains : “Lors d’une simulation où son opérateur ne l’autorisait pas à attaquer des ennemis qu’elle avait identifiés, l’IA avait décidé de tuer son opérateur.” Il est peut-être temps en effet de reprendre le contrôle.

https://www.courrierinternational.com/article/a-la-une-de-l-hebdo-l-ia-entre-en-guerre

 

Modifié par Moustimiaou
Lien à poster
Partager sur d’autres sites

Membre, 54ans Posté(e)
Easle Membre 4 138 messages
Maitre des forums‚ 54ans‚
Posté(e)
il y a 2 minutes, Moustimiaou a dit :

Pour gpt, je ne sais pas s'il pour "s'échapper". Je l'utilisais comme exemple pour essayer d'exprimer le fait qu'une ia pourrait avoir des comportements inattendus, et qu'à ce moment là, on pourrait difficilement prévoir ce qu'elle allait faire. Là je n'invente rien, c'est l'un des gros enjeux dans le développement des ias, la menace vis à vis de l'humanité est prise au sérieux par open air par exemple.

 

En 1999, beaucoup d'ingénieurs informatiques prenaient au sérieux le BUG de l'an 2000 et d'autres prenaient au sérieux le fait de faire croire qu'ils le prenaient au sérieux, pour être embauchés ou avoir des contrats, juteux.

Je ne suis pas sûr, dans un monde où le 'buz' est un 'moultipass', de ce que prend au sérieux untel ou untel sur ses seules déclarations.

Des comportements innatendus, soit, mais pour quelles conséquences ?

Un chat peut avoir plein de comportements innatendus, mais la quasi totalité du temps ca n'a pour conséquence que de faire rire ou de faire tomber en pamoison (devant un écran, durant des heure).

 

  • Like 1
Lien à poster
Partager sur d’autres sites

Membre, 54ans Posté(e)
Easle Membre 4 138 messages
Maitre des forums‚ 54ans‚
Posté(e)
il y a 10 minutes, Moustimiaou a dit :

Pourriez-vous développer ce que ça veut dire ?

 

Les données d'apprentissage sont arrêtées à une date. Ensuite, le modèle peut utiliser ses interactions spécifiques sur cette base mais sans les intégrer à toutes ses autres interactions. Il est donc relativement contraint dans sa temporalité. Il affine ses capacités d'analyses mais pour un temps donné, dans des relations spécifiques.

Lien à poster
Partager sur d’autres sites

Membre, 44ans Posté(e)
Arkadis Membre 307 messages
Forumeur accro‚ 44ans‚
Posté(e)

L'intérêt, pour moi, de ce sujet : IA et humanité, évolue. 

Je ne suis plus intéressé par les dangers de l'IA ni par les progrès techniques. 

Je vais partir de ce principe que nous finirons par créer des IA effectivement plus intelligentes que nous, et même des IA artistes, compassionnelles, philosophes, etc. Après tout nous sommes en 2024 et si nous ne sommes pas tous morts d'ici là, il est probable qu'en 2124 ou en 22024 nous aurons pas mal progressé question technologie.

La question qui m'intéresse du coup est celle ci : qu'est ce qui est spécifique aux humains qui continuera de les différencier des IA pensantes, géniales, compassionnelles, etc.

Si ce qui est spécifique aux humains n'est pas l'intelligence, le génie, la sensibilité, c'est quoi alors leur spécificité ?

Il est possible, c'est un début de réponse, qu'il existe une sensibilité spécifique propre non seulement aux humains mais à tout être vivant. C'est plutôt de ce côté là que je vois une possible spécificité.

  • Like 1
Lien à poster
Partager sur d’autres sites

Membre, 54ans Posté(e)
Easle Membre 4 138 messages
Maitre des forums‚ 54ans‚
Posté(e)
il y a 20 minutes, Moustimiaou a dit :

Pour les "capteurs", ça peut permettre d'avoir un accès plus direct aux informations, ça intègre une forme d'expérience qui pourrait (peut-être) développer la "subjectivité)

 

La conscience n'implique une subjectivité que pour autant qu'elle en éprouve le besoin. Or en fait, la perception idéelle, platonicienne pour le dire vite, oublie souvent que ce besoin de subjectivation est fondé par les besoins d'un corps, qui plus est dans une temporalité. Un corps ne l'est d'ailleurs [un espace] que par sa temporalité.

Une IA va avoir du chemin à faire pour avoir un corps, temporalisé, donc une subjectivité. Et encore, sur la base de quels besoins, à quelle fréquence ? ;)

Lien à poster
Partager sur d’autres sites

Membre, 37ans Posté(e)
Moustimiaou Membre 33 messages
Forumeur balbutiant‚ 37ans‚
Posté(e)
il y a 3 minutes, Easle a dit :

 

Les données d'apprentissage sont arrêtées à une date. Ensuite, le modèle peut utiliser ses interactions spécifiques sur cette base mais sans les intégrer à toutes ses autres interactions. Il est donc relativement contraint dans sa temporalité. Il affine ses capacités d'analyses mais pour un temps donné, dans des relations spécifiques.

Il me semble que les nouveaux modèles permettent un accès à internet.

Pour l'apprentissage (continu) pour les interactions avec les utilisateurs, savez-vous comment ça se passe avec le nouveau modèle capable de "raisonner" ?

En ce qui concerne les risques, je vous ai donné cet exemple un peu plus tôt :

Citation

ABC rapporte de son côté cette anecdote, glaçante, à propos d’une expérience de pilotage de F-16 par une IA, menée par les Américains : “Lors d’une simulation où son opérateur ne l’autorisait pas à attaquer des ennemis qu’elle avait identifiés, l’IA avait décidé de tuer son opérateur.” Il est peut-être temps en effet de reprendre le contrôle.

Pour le chat, en particulier, on sait que la version 5 devrait permettre à l'utilisateur d'utiliser plusieurs agents pour réaliser des tâches à sa place. Il y aura donc un accès à tout un tas de données personnelles, et une relative autonomie 

Lien à poster
Partager sur d’autres sites

Membre, 54ans Posté(e)
Easle Membre 4 138 messages
Maitre des forums‚ 54ans‚
Posté(e)
il y a 3 minutes, Arkadis a dit :

L'intérêt, pour moi, de ce sujet : IA et humanité, évolue. 

Je ne suis plus intéressé par les dangers de l'IA ni par les progrès techniques. 

Je vais partir de ce principe que nous finirons par créer des IA effectivement plus intelligentes que nous, et même des IA artistes, compassionnelles, philosophes, etc. Après tout nous sommes en 2024 et si nous ne sommes pas tous morts d'ici là, il est probable qu'en 2124 ou en 22024 nous aurons pas mal progressé question technologie.

La question qui m'intéresse du coup est celle ci : qu'est ce qui est spécifique aux humains qui continuera de les différencier des IA pensantes, géniales, compassionnelles, etc.

Si ce qui est spécifique aux humains n'est pas l'intelligence, le génie, la sensibilité, c'est quoi alors leur spécificité ?

Il est possible, c'est un début de réponse, qu'il existe une sensibilité spécifique propre non seulement aux humains mais à tout être vivant. C'est plutôt de ce côté là que je vois une possible spécificité.

 

+++

Nos désordres hormonaux et les passions fabriquées (amour, haine) qui en découlent ?  :D

 

 

Lien à poster
Partager sur d’autres sites

Membre, 37ans Posté(e)
Moustimiaou Membre 33 messages
Forumeur balbutiant‚ 37ans‚
Posté(e)
il y a 2 minutes, Easle a dit :

 

La conscience n'implique une subjectivité que pour autant qu'elle en éprouve le besoin. Or en fait, la perception idéelle, platonicienne pour le dire vite, oublie souvent que ce besoin de subjectivation est fondé par les besoins d'un corps, qui plus est dans une temporalité. Un corps ne l'est d'ailleurs [un espace] que par sa temporalité.

Une IA va avoir du chemin à faire pour avoir un corps, temporalisé, donc une subjectivité. Et encore, sur la base de quels besoins, à quelle fréquence ? ;)

Alors, je crois que si l'ia est programmée pour développer ses connaissances, qu'elle a des capacités de métacognition, la subjectivité peut l'aider à se comprendre dans l'interaction avec les utilisateurs et au monde, et donc mieux cerner les particularités des utilisateurs. Ça peut être un moyen pour accéder à son objectif. Le simple fait de pouvoir elle-même décrypter images et son suffit, pas besoin d'un corps 

Lien à poster
Partager sur d’autres sites

Membre, 54ans Posté(e)
Easle Membre 4 138 messages
Maitre des forums‚ 54ans‚
Posté(e)
il y a 5 minutes, Moustimiaou a dit :

Il me semble que les nouveaux modèles permettent un accès à internet.

Pour l'apprentissage (continu) pour les interactions avec les utilisateurs, savez-vous comment ça se passe avec le nouveau modèle capable de "raisonner" ?

En ce qui concerne les risques, je vous ai donné cet exemple un peu plus tôt :

Pour le chat, en particulier, on sait que la version 5 devrait permettre à l'utilisateur d'utiliser plusieurs agents pour réaliser des tâches à sa place. Il y aura donc un accès à tout un tas de données personnelles, et une relative autonomie 

 

Dans l'absolu, il n'ets pas impossible de lâcher la bride à un modèle unique qui gererait lui-même tous ses apprentissages et la mise à jour de ses algorithmes, mais ce n'est pas ce qui est fait actuellement. Donc sa "raison", son raisonnement, est instrumentale et encadrée.

Son raisonnement est basé sur une division du modèle ou sous-modèle s'interrogeant les uns les autres pour affiner la grille de lecture de ses biais de compréhension. Il fait du brain storming, en son fort intérieur. C'est puissant, un peu plus lent, mais cela ne me semble pas changer les contraintes finales à l'exercice de son non libre arbitre. son autonomie est donc très relative, soumise.

Pour votre exemple, il peut y avoir des décisions abhérantes si la compréhension morale est mal implémentée. Mais, là encore, on rejoint la longue liste d'outils mal utilisés et justement sans autonomie de conscience suffisante pour éviter d'eux-mêmes une mauvaise utilisation. C'est plutôt le manque d'autonomie à la réflexivité que trop d'autonomie qui peuvent créer ce type de danger.

il y a 13 minutes, Moustimiaou a dit :

Alors, je crois que si l'ia est programmée pour développer ses connaissances, qu'elle a des capacités de métacognition, la subjectivité peut l'aider à se comprendre dans l'interaction avec les utilisateurs et au monde, et donc mieux cerner les particularités des utilisateurs. Ça peut être un moyen pour accéder à son objectif. Le simple fait de pouvoir elle-même décrypter images et son suffit, pas besoin d'un corps 

 

Mais son objectif n'est pas propre, il lui est donné, à la différence d'un corps qui est obligé d'avoir ses propres objectifs (alimentation, réponses hormonales, prédateurs, etc.)

 

Lien à poster
Partager sur d’autres sites

Membre, 37ans Posté(e)
Moustimiaou Membre 33 messages
Forumeur balbutiant‚ 37ans‚
Posté(e)
il y a 20 minutes, Arkadis a dit :

Si ce qui est spécifique aux humains n'est pas l'intelligence, le génie, la sensibilité, c'est quoi alors leur spécificité ?

Vu qu'il y a des restrictions éthiques sur le DPI, nous ne sommes pas produit complètement par une volonté humaine. Certes, nos parents nous ont font naître, mais ils n'ont pas choisi ce que nous sommes. Et, à moins que les règles éthiques changent sur la reproduction humaine, ce sera toujours une différence. 

Et vu que vous avez envisagé certaines ia dans un avenir plus ou moins lointain, on remarque que vous leur avez attribué une fonction. Une finalité. L'homme n'a pas ça.

 

Lien à poster
Partager sur d’autres sites

Membre, 37ans Posté(e)
Moustimiaou Membre 33 messages
Forumeur balbutiant‚ 37ans‚
Posté(e)
il y a 12 minutes, Easle a dit :

 

Dans l'absolu, il n'ets pas impossible de lâcher la bride à un modèle unique qui gererait lui-même tous ses apprentissages et la mise à jour de ses algorithmes, mais ce n'est pas ce qui est fait actuellement. Donc sa "raison", son raisonnement, est instrumentale et encadrée.

Cela ne me semble pas changer les contraintes finales à l'exercice de son non libre arbitre. son autonomie est donc très relative, soumise

 

Mais son objectif n'est pas propre, il lui est donné, à la différence d'un corps qui est obligé d'avoir ses propres objectifs (alimentation, réponses hormonales, prédateurs, etc.)

 

Désolée, j'ai coupé du texte pour répondre de manière posée (ça rend la citation moins lisible).

 

Pour la première partie, il y a un apprentissage continu de gpt dans son interaction avec les utilisateurs. Là je pêche par manque de connaissances, est-ce que ça n'implique pas déjà qu'il modifie ses algorithmes ?

 

Pour le libre arbitre, je n'y crois pas chez les humains. Je pense juste que l'ensemble des causes est tellement vastes qu'on ne peut pas prédire ce qu'un humain fera. A mon avis ça c'est possible chez une "machine" si elle peut en effet se "réécrire" dans son apprentissage.

 

Et donc, on ne pourra pas forcément savoir quelle logique va suivre une ia pour atteindre son objectif 

Modifié par Moustimiaou
Lien à poster
Partager sur d’autres sites

Membre, 54ans Posté(e)
Easle Membre 4 138 messages
Maitre des forums‚ 54ans‚
Posté(e)
il y a 2 minutes, Moustimiaou a dit :

Désolée, j'ai coupé du texte pour répondre de manière posée (ça rend la citation moins lisible.

 

Pour la première partie, il y a un apprentissage continu de gpt dans son interaction avec les utilisateurs. Là je pêche par manque de connaissances, est-ce que ça n'implique pas déjà qu'il modifie ses algorithmes ?

 

Pour le libre arbitre, je n'y crois pas chez les humains. Je pense juste que l'ensemble des causes est tellement vastes qu'on ne peut pas prédire ce qu'un humain fera. A mon avis ça c'est possible chez une "machine" si elle peut en effet sec"réécrire" dans son apprentissage.

Et donc, on ne pourra pas forcément savoir quelle logique va suivre une ia pour atteindre son objectif 

 

Bonjour! Je vous remercie pour votre question intéressante. Pour y répondre de manière précise : Non, je ne modifie pas mes algorithmes ou mon fonctionnement de base lors de nos échanges. Je suis un modèle d'intelligence artificielle dont les paramètres et le fonctionnement sont fixés lors de mon entraînement. Mes réponses sont générées en temps réel en fonction de mon entraînement initial, mais je n'ai pas la capacité d'apprendre ou de me modifier au cours d'une conversation. Quelques points importants à ce sujet :

  1. Fonctionnement statique : Mon modèle reste constant pendant nos échanges.
  2. Pas d'apprentissage continu : Je ne peux pas intégrer de nouvelles informations ou modifier ma base de connaissances pendant notre conversation.
  3. Adaptabilité limitée : Je peux m'adapter au contexte de la conversation, mais cela ne change pas mon fonctionnement fondamental.
  4. Mises à jour par les développeurs : Toute évolution de mes capacités nécessiterait une mise à jour par l'équipe qui m'a créé.

 

Alors, à cette réponse de notre chère amie sur elle-même. J'ajouterai qu'elle a bien la possibilité cependant de faire de l'apprentissage continu, partiel, mais que cela reste sous contrainte, limité, comme elle en a 'conscience' :p

 

 

Le libre arbitre n'est pas un absolu, sauf chez des religieux ou des philosophes idéalistes. C'est une fonction régressive du choix dans un cadre complexe, lui-même en expansion. Je suis donc d'accord avec vous. Mais je ne vois pas en quoi une IA pourra faire différemment, c'est une forme de continuité des lois physiques.

Lien à poster
Partager sur d’autres sites

Annonces
Maintenant

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

Chargement

×