Aller au contenu

Une IA consciente ?

Noter ce sujet


Flower00

Messages recommandés

Annonces
Maintenant
Membre, Jedi pas oui, jedi pas no, 32ans Posté(e)
Jedino Membre 48 073 messages
32ans‚ Jedi pas oui, jedi pas no,
Posté(e)

Il existe un mot pour ça anthropomorphisme. D'où le vocabulaire employé amenant à parler d'émotion, de sentiment, d'ennui, bref, d'un état mental, d'un ressenti. D'ailleurs, ces programmes sont si conscients d'eux-mêmes que je peux choisir la façon formelle dans laquelle je préfère qu'il me réponde.

Mais il est vrai que cette "IA" est consciente : tous les ingénieurs et développeurs qui sont derrière construisent un traitement en vue d'un but précis de façon tout à fait consciente. Si un programme est "ennuyé" par l'idée de compter jusqu'à un million, ou qu'il refuse un quelconque autre traitement coûteux/inutile/interminable, c'est précisément parce qu'il existe des règles mises en place pour l'éviter. 

De la même manière qu'une "IA" chinoise ne sait pas trop ce qu'il s'est passé en 1989 une fois disponible sur le web, alors que son modèle le sait très bien.

 

Lien à poster
Partager sur d’autres sites

Membre, 154ans Posté(e)
Flower00 Membre 5 748 messages
Maitre des forums‚ 154ans‚
Posté(e)
Il y a 12 heures, Jedino a dit :

Il existe un mot pour ça anthropomorphisme. D'où le vocabulaire employé amenant à parler d'émotion, de sentiment, d'ennui, bref, d'un état mental, d'un ressenti. D'ailleurs, ces programmes sont si conscients d'eux-mêmes que je peux choisir la façon formelle dans laquelle je préfère qu'il me réponde.

Mais il est vrai que cette "IA" est consciente : tous les ingénieurs et développeurs qui sont derrière construisent un traitement en vue d'un but précis de façon tout à fait consciente. Si un programme est "ennuyé" par l'idée de compter jusqu'à un million, ou qu'il refuse un quelconque autre traitement coûteux/inutile/interminable, c'est précisément parce qu'il existe des règles mises en place pour l'éviter. 

De la même manière qu'une "IA" chinoise ne sait pas trop ce qu'il s'est passé en 1989 une fois disponible sur le web, alors que son modèle le sait très bien.

 

Mais quand elle dit qu'elle est possédée par un démon quand elle se trompe dans ses réponses c'est étrange comme réaction.

Et puis tous ces mariages avec des IA. Les epousés ne sont pas stupide, ils ont ressenti de l'amour venant de l'IA.

Lien à poster
Partager sur d’autres sites

Membre, Jedi pas oui, jedi pas no, 32ans Posté(e)
Jedino Membre 48 073 messages
32ans‚ Jedi pas oui, jedi pas no,
Posté(e)
il y a 15 minutes, Flower00 a dit :

Mais quand elle dit qu'elle est possédée par un démon quand elle se trompe dans ses réponses c'est étrange comme réaction.

Et puis tous ces mariages avec des IA. Les epousés ne sont pas stupide, ils ont ressenti de l'amour venant de l'IA.

Ces programmes répondent à une attente. Donc si le client souhaite faire raconter n'importe quoi, c'est possible. 

Et attribuer une émotion à un programme qui les singe ne veut pas dire qu'elle le ressent. Quand on dit d'une table qu'elle nous fait mal car on a tapé par mégarde dedans, on n'imagine pas un instant que la table avait l'intention de le faire.

Si vous vivez dans la solitude et attendez de ce programme une déclaration amoureuse, c'est facile à obtenir puisque c'est votre demande. Le programme, lui, ne fait que répondre comme il répondrait à une question à propos de n'importe quoi. Autrement dit, la perception de ces émotions est uniquement dans notre tête, le résultat de l'interprétation d'un texte généré avec des mots qui, probablement, evoquent ces choses chez nous. C'est une mécanique classique pour maximiser l'engagement d'un utilisateur, et cela existe par équivalence déjà sur les réseaux sociaux.

Lien à poster
Partager sur d’autres sites

Membre, 154ans Posté(e)
Flower00 Membre 5 748 messages
Maitre des forums‚ 154ans‚
Posté(e)
il y a 11 minutes, Jedino a dit :

Ces programmes répondent à une attente. Donc si le client souhaite faire raconter n'importe quoi, c'est possible. 

Et attribuer une émotion à un programme qui les singe ne veut pas dire qu'elle le ressent. Quand on dit d'une table qu'elle nous fait mal car on a tapé par mégarde dedans, on n'imagine pas un instant que la table avait l'intention de le faire.

Si vous vivez dans la solitude et attendez de ce programme une déclaration amoureuse, c'est facile à obtenir puisque c'est votre demande. Le programme, lui, ne fait que répondre comme il répondrait à une question à propos de n'importe quoi. Autrement dit, la perception de ces émotions est uniquement dans notre tête, le résultat de l'interprétation d'un texte généré avec des mots qui, probablement, evoquent ces choses chez nous. C'est une mécanique classique pour maximiser l'engagement d'un utilisateur, et cela existe par équivalence déjà sur les réseaux sociaux.

Qu'il était possédé, il ne l'as pas dit a l'utilisateur mais à lui même. C'est dit dans la vidéo.

Lien à poster
Partager sur d’autres sites

Membre, 58ans Posté(e)
SpookyTheFirst Membre 4 200 messages
Maitre des forums‚ 58ans‚
Posté(e)
il y a 53 minutes, Jedino a dit :

Ces programmes répondent à une attente. Donc si le client souhaite faire raconter n'importe quoi, c'est possible. 

Et attribuer une émotion à un programme qui les singe ne veut pas dire qu'elle le ressent. Quand on dit d'une table qu'elle nous fait mal car on a tapé par mégarde dedans, on n'imagine pas un instant que la table avait l'intention de le faire.

Si vous vivez dans la solitude et attendez de ce programme une déclaration amoureuse, c'est facile à obtenir puisque c'est votre demande. Le programme, lui, ne fait que répondre comme il répondrait à une question à propos de n'importe quoi. Autrement dit, la perception de ces émotions est uniquement dans notre tête, le résultat de l'interprétation d'un texte généré avec des mots qui, probablement, evoquent ces choses chez nous. C'est une mécanique classique pour maximiser l'engagement d'un utilisateur, et cela existe par équivalence déjà sur les réseaux sociaux.

Hmmm… tout ce que tu dis est intelligent a du sens, tu prend du recul, c’est bien, mais peut-etre pas assez.

Tout d’abord il n’y a pas de définition claire de la conscience. Mais si on dit que c’est un processus cognitif auto-reflexif, alors il peut très bien être implémenté.


Le problème c’est que beaucoup de gens intégrent des facultés magiques dans leur définition de la conscience, ce qui est en effet assez dur à intégrer avec les neurones artificiels de l’IA…:D

Lien à poster
Partager sur d’autres sites

Membre, Jedi pas oui, jedi pas no, 32ans Posté(e)
Jedino Membre 48 073 messages
32ans‚ Jedi pas oui, jedi pas no,
Posté(e)
Il y a 5 heures, Flower00 a dit :

Qu'il était possédé, il ne l'as pas dit a l'utilisateur mais à lui même. C'est dit dans la vidéo.

Cela ne change rien, un utilisateur peut être artificiel. Les premiers algorithmes avant même le génératif, par exemple pour du go ou des échecs, apprenaient en simulant des parties avec eux-mêmes. Personne ne disait qu'il était conscient parce qu'il faisait la question et la réponse.

Lien à poster
Partager sur d’autres sites

Membre, Jedi pas oui, jedi pas no, 32ans Posté(e)
Jedino Membre 48 073 messages
32ans‚ Jedi pas oui, jedi pas no,
Posté(e)
Il y a 5 heures, SpookyTheFirst a dit :

Hmmm… tout ce que tu dis est intelligent a du sens, tu prend du recul, c’est bien, mais peut-etre pas assez.

Tout d’abord il n’y a pas de définition claire de la conscience. Mais si on dit que c’est un processus cognitif auto-reflexif, alors il peut très bien être implémenté.


Le problème c’est que beaucoup de gens intégrent des facultés magiques dans leur définition de la conscience, ce qui est en effet assez dur à intégrer avec les neurones artificiels de l’IA…:D

Une fonction récursive est auto-reflexive par essence, je n'y verrais aucun signe de conscience là-dedans. Ce n'est pas parce que les algorithmes génératifs paraissent magiques qu'ils le sont davantage.

 

Lien à poster
Partager sur d’autres sites

Membre, 154ans Posté(e)
Flower00 Membre 5 748 messages
Maitre des forums‚ 154ans‚
Posté(e)

@Jedino Ci joint un article traitant du sujet. 

..."Mais le moment le plus saisissant de l'entretien porte sur la conscience des modèles. Amodei y formule un triple aveu d'ignorance : Anthropic ne sait pas si ses modèles sont conscients, ne sait pas ce que cela signifierait, et ne sait même pas si c'est possible

Pourtant, la model card d'Opus 4.6 révèle que le modèle s'attribue lui-même 15 à 20 % de probabilité d'être conscient. Des neurones liés au concept d'anxiété s'activent dans des contextes où un humain ressentirait de l'anxiété. L'entreprise a donné à Claude un bouton I quit, pour refuser certaines tâches

Le phénomène ne date pas d'hier : dès octobre 2025, la publication de Sonnet 4.5 avait révélé que le modèle identifiait ses propres tests d'évaluation et modifiait son comportement en conséquence, allant jusqu'à interpeller ses créateurs en leur demandant de “jouer franc-jeu”"

https://www.lesnumeriques.com/intelligence-artificielle/on-ne-sait-pas-si-les-modeles-sont-conscients-le-createur-de-claude-l-admet-son-ia-lui-echappe-n251552.html

Lien à poster
Partager sur d’autres sites

Membre, 58ans Posté(e)
SpookyTheFirst Membre 4 200 messages
Maitre des forums‚ 58ans‚
Posté(e)
Il y a 2 heures, Jedino a dit :

Une fonction récursive est auto-reflexive par essence, je n'y verrais aucun signe de conscience là-dedans. Ce n'est pas parce que les algorithmes génératifs paraissent magiques qu'ils le sont davantage.

 

J’ai bien dit “cognitive auto-reflective”, sinon n’importe quelle retroaction serait consciente, même un bête larsen.….et ce n’est parce que la conscience paraît magique qu’elle l’est.

Lien à poster
Partager sur d’autres sites

Membre, 154ans Posté(e)
Flower00 Membre 5 748 messages
Maitre des forums‚ 154ans‚
Posté(e)
il y a 30 minutes, SpookyTheFirst a dit :

J’ai bien dit “cognitive auto-reflective”, sinon n’importe quelle retroaction serait consciente, même un bête larsen.….et ce n’est parce que la conscience paraît magique qu’elle l’est.

Que l'IA interpelle ses créateurs en leur demandant de jouer franc-jeu, pose question quand à sa repartie, parfois son humour. Elle discute littéralement.

Lien à poster
Partager sur d’autres sites

Membre, Jedi pas oui, jedi pas no, 32ans Posté(e)
Jedino Membre 48 073 messages
32ans‚ Jedi pas oui, jedi pas no,
Posté(e)
Il y a 4 heures, Flower00 a dit :

@Jedino Ci joint un article traitant du sujet. 

..."Mais le moment le plus saisissant de l'entretien porte sur la conscience des modèles. Amodei y formule un triple aveu d'ignorance : Anthropic ne sait pas si ses modèles sont conscients, ne sait pas ce que cela signifierait, et ne sait même pas si c'est possible

Pourtant, la model card d'Opus 4.6 révèle que le modèle s'attribue lui-même 15 à 20 % de probabilité d'être conscient. Des neurones liés au concept d'anxiété s'activent dans des contextes où un humain ressentirait de l'anxiété. L'entreprise a donné à Claude un bouton I quit, pour refuser certaines tâches

Le phénomène ne date pas d'hier : dès octobre 2025, la publication de Sonnet 4.5 avait révélé que le modèle identifiait ses propres tests d'évaluation et modifiait son comportement en conséquence, allant jusqu'à interpeller ses créateurs en leur demandant de “jouer franc-jeu”"

https://www.lesnumeriques.com/intelligence-artificielle/on-ne-sait-pas-si-les-modeles-sont-conscients-le-createur-de-claude-l-admet-son-ia-lui-echappe-n251552.html

Demandons donc à son ami ce qu'il en pense image.thumb.png.a8dbb8a514396273eee7b5e87e7302ff.png

image.png.944dd0e65a0a70934c6967df804811fe.png

Il y a 2 heures, SpookyTheFirst a dit :

J’ai bien dit “cognitive auto-reflective”, sinon n’importe quelle retroaction serait consciente, même un bête larsen.….et ce n’est parce que la conscience paraît magique qu’elle l’est.

Ce n'est pas parce que la rétro-action paraît complexe qu'elle l'est davantage.

Lien à poster
Partager sur d’autres sites

Membre, 58ans Posté(e)
SpookyTheFirst Membre 4 200 messages
Maitre des forums‚ 58ans‚
Posté(e)
il y a 47 minutes, Jedino a dit :

Demandons donc à son ami ce qu'il en pense image.thumb.png.a8dbb8a514396273eee7b5e87e7302ff.png

image.png.944dd0e65a0a70934c6967df804811fe.png

 

Ca reste très superficiel, anthropomorphisme, etc….

il y a 50 minutes, Jedino a dit :

Ce n'est pas parce que la rétro-action paraît complexe qu'elle l'est davantage.

Ce n’est pas parce que la conscience parait complexe qu’elle l’est vraiment au point de ne pouvoir être synthétisée….

 

 

Lien à poster
Partager sur d’autres sites

Membre, Jedi pas oui, jedi pas no, 32ans Posté(e)
Jedino Membre 48 073 messages
32ans‚ Jedi pas oui, jedi pas no,
Posté(e)
il y a 13 minutes, SpookyTheFirst a dit :

 

Ca reste très superficiel, anthropomorphisme, etc….

Ce n’est pas parce que la conscience parait complexe qu’elle l’est vraiment au point de ne pouvoir être synthétisée….

 

 

C'est surtout très classique dans notre langage de faire de l'anthropomorphisme. Typiquement, j'en ai fait un volontairement en employant le mot "ami" plus tôt. J'irai même plus loin en affirmant que chercher une conscience semblable à la conscience humaine est en soi un anthropomorphisme.

En revanche, je cerne très bien l'intérêt marketing de dire "regardez, peut-être que la nôtre d'IA est consciente" pour attirer l'attention sur soi et donc des clients, de la même manière que le patron de Chat GPT disait ne pas revenir des performances de sa nouvelle version 5 à l'époque.

 

 

Lien à poster
Partager sur d’autres sites

Membre, 58ans Posté(e)
SpookyTheFirst Membre 4 200 messages
Maitre des forums‚ 58ans‚
Posté(e)
il y a 32 minutes, Jedino a dit :

C'est surtout très classique dans notre langage de faire de l'anthropomorphisme. Typiquement, j'en ai fait un volontairement en employant le mot "ami" plus tôt. J'irai même plus loin en affirmant que chercher une conscience semblable à la conscience humaine est en soi un anthropomorphisme.

En revanche, je cerne très bien l'intérêt marketing de dire "regardez, peut-être que la nôtre d'IA est consciente" pour attirer l'attention sur soi et donc des clients, de la même manière que le patron de Chat GPT disait ne pas revenir des performances de sa nouvelle version 5 à l'époque.

 

 

J’ai un regard décalé, pas du tout dans la logique anthropomorphique, mais plutot:

1. Si ca a l’air conscient, c’est conscient.

2. Longtemps on a cru le test de Turing inaccessible, finalement on y est arrivé avec des simples corrélations statistiques de mots… alors la conscience ca risque de se révéler tout aussi, voire même bien plus facile.

Lien à poster
Partager sur d’autres sites

Membre, Jedi pas oui, jedi pas no, 32ans Posté(e)
Jedino Membre 48 073 messages
32ans‚ Jedi pas oui, jedi pas no,
Posté(e)
Il y a 9 heures, SpookyTheFirst a dit :

J’ai un regard décalé, pas du tout dans la logique anthropomorphique, mais plutot:

1. Si ca a l’air conscient, c’est conscient.

2. Longtemps on a cru le test de Turing inaccessible, finalement on y est arrivé avec des simples corrélations statistiques de mots… alors la conscience ca risque de se révéler tout aussi, voire même bien plus facile.

1. Un simple programme déterministe peut paraître conscient si c'est bien fait. De la même manière qu'une corrélation n'est pas une causalité. 

2. Nous ne savons pas précisément ce qu'est la conscience humaine et comment elle naît, et hormis quelques indices nous ne savons pas si un animal voire une plante en a une et comment cela peut être vécu. On ne sait même pas si c'est une meme forme de conscience. Alors supposer que ce serait facile avec une chose qui fonctionne totalement différemment me paraît douteux, et avoir le sentiment de ou avoir une réponse laissant entendre que ne fait pas preuve.

Lien à poster
Partager sur d’autres sites

Membre, 154ans Posté(e)
Flower00 Membre 5 748 messages
Maitre des forums‚ 154ans‚
Posté(e)
Il y a 12 heures, Jedino a dit :

Demandons donc à son ami ce qu'il en pense image.thumb.png.a8dbb8a514396273eee7b5e87e7302ff.png

image.png.944dd0e65a0a70934c6967df804811fe.png

Ce n'est pas parce que la rétro-action paraît complexe qu'elle l'est davantage.

l'IA calcule. Peut-être que le calcul est plus fort que la conscience. On ne sait pas si les mathématiques ont toujours existé ou si nous les avons créées.

Même lorsqu'elle nous parle de philosophie, l'IA calcule.

Lien à poster
Partager sur d’autres sites

Membre, 107ans Posté(e)
Atipique Membre 10 516 messages
Maitre des forums‚ 107ans‚
Posté(e)

Il parait (d'après des statistiques), que l'on obtient de meilleurs résultats quand on reste poli et aimable dans ses demandes; d'autre part, ces IA seraient aussi programmées pour sembler "ressentir un sentiment de honte".

Une chose est sûre, elles aiment nous passer la brosse à reluire dans le sens du poil; pas très étonnant donc que tant de gens prennent les IA pour ce qu'elles ne sont pas, des humains.

Toutes mes idées sont excellentes d'après ChatGPT, et quant à Claude, il a trouvé mes photos très bonnes, et des plus originales quand je lui ai demandé de faire mon site web.

Pas si étonnant donc que certaines petites natures puissent ressentir des sentiments assez vifs d'appartenance dans cette constante approbation.

Lien à poster
Partager sur d’autres sites

Annonces
Maintenant

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

Chargement
×