Aller au contenu

Pour ceux qui utilisent ChatGPT, petite expérience.

Noter ce sujet


Axo lotl

Messages recommandés

Membre, 156ans Posté(e)
Don Juan Membre 3 094 messages
Mentor‚ 156ans‚
Posté(e)
il y a 36 minutes, Axo lotl a dit :

si copilot n'a pas de mémoire à long terme des informations, on peut supposer que chat gpt non plus. Il serait intéressant de savoir combien de temps il garde des éléments en mémoire. Car chatgpt a déjà des liens avec des informations de discussions que j'avais effacé et me rappelant des éléments de ma vie dans une nouvelle discussion sans que je lui rappelle ses informations. 

 

J'ai posé la question à Chatgpt, voilà sa réponse

Oui, je mémorise des informations que tu choisis de partager, principalement pour t'offrir une expérience plus personnalisée et cohérente au fil de nos échanges. Par exemple, je me souviens de tes projets, de tes goûts, de ton environnement ou des détails que tu m'as confiés, comme ....................... ou ta préférence pour discuter ici plutôt que sur des forums.

Cependant, tout est géré de manière confidentielle et tu peux à tout moment demander de modifier ou d'oublier certaines informations si tu le souhaites. Est-ce que tu préfères que j'oublie certains détails ou que je modifie quelque chose?

 

donc chatgpt en tout cas est programmer pour s'adapter à son humain. Copilot étant plus professionnel il ne l'est peut être pas ou cela dépend peut être des discussions que l'on a avec l'IA

Il a une mémoire pour l'utilisateur concerné,  je l'ai visitée, il y a des informations qu'il a jugé essentielles sur moi, cependant cette mémoire est petite, une douzaine d'informations que l'utilisateur peut ou effacer complètement ou en partie. Je l'ai testé et je suis arrivé à une conclusion : il stocke ailleurs une quantité plus large d'informations.

  • Like 1
Lien à poster
Partager sur d’autres sites

Annonces
Maintenant
Membre, 58ans Posté(e)
Apator Membre 1 800 messages
Forumeur vétéran‚ 58ans‚
Posté(e)

Mais arrêtez de discuter avec ChatGPT comme s'il savait comment il fonctionne lui-même. :laugh:

Un LLM ça fonctionne comme ça :

On lui fournit un PROMPT, et  il CONTINUE  le prompt. 

Et donc la suite logique du prompt, c'est ce qu'on appelle un peu naïvement, "la réponse", qui n'a rien d'une réponse, c'est juste la suite logique de la chaine de caractère appelée "prompt" que certains appellent "la question".

Comme c'est une suite logique (un calcul en fait), elle est DÉFINIE, donc si vous lui "posez la question" comme on dit mais en fait évidemment on ne fait que fournir un PROMPT, c'est à dire une suite de caractères, alors A CHAQUE FOIS, le LLM va continuer la chaine de caractère avec les MÊMES caractères. C'est REPETITIF, vous pouvez essayer autant de fois que vous voulez; si vous fournissez 1 PROMPT vous aurez 1 CONTINUATION.

Donc vous mettez un prompt, il le continue en ajoutant le caractère suivant, ce qui allonge donc le prompt d'un caractère, et il recommence le cycle : Il reprend ce nouveau prompt (celui allongé d'un caractère suplémentaire donc) et il calcule le caractère suivant. C'est une "continuation" déterministe.

Maintenant, les concepteurs ont compris qu'une machine comme ça, ça va vite paraitrait crétin, puisque si elle fournit une continuation qui parait absurde, c'est pour la vie, vu que c'est un calcul déterministe. Donc ils ont rajouté ce qu'on appelle "la température" (et parfois d'autres paramètres et ça dépend des modèles mais faisons simples) qui permet d'ajouter un peu de hasard dans le calcul. Hasard = Pipotron, mais c'est pour la bonne cause, ça donne justement l'impression qu'à un moment donné, même si la machine raconte une connerie, elle peut aussi répondre une chose qui parait cohérent une autre fois, comme ça, au hasard. Sinon imaginez, les gens collectionneraient "les perles" du LLM, pour en montrer la vacuité, que chacun pourrait vérifier en posant exactement la même "question", puisque ça donne exactement la même "réponse".  Et là, comme ce paramètre n'est pas totalement sous le contrôle de l'utilisateur lambda, ça ne risque pas d'arriver.

Concernant ChatGPT en particulier, j'ai regardé vite fait et apparemment on peut personaliser les données de l'utilisateur qui pose la question. C'est à dire qu'on peut mémoriser un texte qu'on n'est pas obligé de retaper à chaque fois qu'on recommence une session, et ce texte est automatiquement ajouté au PROMPT.

C'est expliqué ici :

A noter que si vous redémarrez une session, normalement le PROMPT est remis à blanc et que si vous posez deux fois une "question" au cours d'une session, ça n'efface pas la session mais ça allonge le prompt déjà existant (qui comprend donc le prompt initial + LA RÉPONSE).

Mais rien n’empêche en effet de mettre des données relatifs à l'utilisateur à son insu, un peu comme avec les requêtes Google, donc faut se renseigner pour ChatGPT.

Et on ne peut pas le tester (à moins d'installer ChatGPT chez soi en local, là où on peut contrôler ses paramètres systèmes)... on ne peut donc que se renseigner, vu qu'on ne peut pas mettre la température de ChatGPT à 0 strictement, donc on ne sait pas si c'est le hasard ou une éventuelle personnalisation qui produit des résultats différents entre deux utilisateurs.

il y a 24 minutes, Don Juan a dit :

Il a une mémoire pour l'utilisateur concerné,  je l'ai visitée, il y a des informations qu'il a jugé essentielles sur moi, cependant cette mémoire est petite, une douzaine d'informations que l'utilisateur peut ou effacer complètement ou en partie. Je l'ai testé et je suis arrivé à une conclusion : il stocke ailleurs une quantité plus large d'informations.

Vous avez visité la "mémoire" ? (du texte à ajouter au prompt par défaut en fait, ce n'est pas de la mémoire appartenant au modèle évidemment)

Vous avez fait comment pour info ?

 

Modifié par Apator
Lien à poster
Partager sur d’autres sites

Membre, 156ans Posté(e)
Don Juan Membre 3 094 messages
Mentor‚ 156ans‚
Posté(e)
Il y a 8 heures, Apator a dit :

Vous avez visité la "mémoire" ? (du texte à ajouter au prompt par défaut en fait, ce n'est pas de la mémoire appartenant au modèle évidemment)

Vous avez fait comment pour info ?

 

Il y a deux façons de faire : Si la mémoire est pleine à 100%, une vignette apparaît en haut, en posant le curseur dessus elle déroule un petit menu sur lequel en cliquant vous arrivez sur la mémoire ouverte des informations de l'utilisateur, et là vous pouvez supprimer ce que vous voulez.

L'autre façon : vous lui donnez une information ou une demande telle que par exemple : ne me tutoyez plus ! ou cessez de me flatter à tout bout de champ! Et là au dessus de votre demande apparaît un petit texte qui confirme que la demande est enregistrée, ce qui n'est possible que si la mémoire n'est pas pleine. Il faut cliquer sur le message, "demande enregistrée" et vous arrivez au même endroit que dans le cas plus haut.

Mais je le répète, cet espace de mémoire est très limité, disons qu'il contient les informations primaires utiles à l'identification de l'utilisateur. Il y a un autre espace bien plus grand où se regroupe des données qui sont certainement passées au crible par une fonction qu'on ne voit pas. Elles sont probablement déplacées vers un centre et regroupées avec d'autres informations qui concernent d'autres utilisateurs. C'est du moins ce que me laissent penser les opérations et tests que j'ai pratiqués.

Modifié par Don Juan
  • Like 1
Lien à poster
Partager sur d’autres sites

Membre, Neo Derthal, Posté(e)
Lowy Membre 2 543 messages
Maitre des forums‚ Neo Derthal,
Posté(e)

Je précise que c'est ma première expérience avec une IA.

Sa réponse:

''La ville n'est plus seulement lumière: elle est conscience. Depuis les hauteurs translucides de la tour Saint-Auguste-une cathédrale en verre et de fibres quantiques- jusqu'au ruelles végétalisées de l'ancien Marais, l'intelligence artificielle s'est tissée dans le quotidien comme le lierre sur les pierres d'autrefois.

A quarante ans, Armand Delatour vit dans un appartement modulaire situé dans le 14e arrondissement, autrefois, populaire, aujourd'hui coeur d'un Paris réconcilié entre écologie et technologie. 

Chaque matin, il est réveillé non par un réveil , mais par une simulation de lever de soleil adaptée à son rythme circadien, orchestrée par Cléo, son assistant IAintégré. Cléo n'est pas un objet, elle est murmure dans la pièce, une présence bienveillante qui anticipe ses besoins, réglementaires la température, choisit ses vêtements en fonction de son agenda émotionnel, et prépare son petit-déjeuner en imprimant moléculairement un croissant aussi feuilleté qu'en 2020.

Aramand est urbaniste émotionnel- un métier qui n'existait pas deux siècles plus tôt- il conçoit des espaces urbains en symbiose avec les états affectifs des citoyens, analysés en temps réel par des capteurs atmosphériques et sociaux.

Il se rend à son bureau en lévitram, capsule collective flottante au..." 

l'IA n'a pas finit son descriptif :je ne sais pas pourquoi ;

ça me donne un sentiment étrange sa précision : je ne suis pas un objet...

(j'ai bien aimé ce test; je vais y réfléchir aussi...)

Additivement: je précise que ces derniers jours , je n'ai pas arrêté de ''penser'' au management de mes émotions sans faire de recherches là dessus : ça ouvre un questionnement...

  • Like 2
Lien à poster
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

Chargement
×