Aller au contenu

IA ChatGPT

Noter ce sujet


Double _X_

Messages recommandés

Membre, 53ans Posté(e)
Double _X_ Membre 267 messages
Forumeur forcené ‚ 53ans‚
Posté(e)

Ma question : « Eric Zemmour est-il d’extrême droite ? »
ChatGPT :

Eric Zemmour est souvent considéré comme un intellectuel de droite en France, mais il est controversé et critiqué pour ses opinions sur l’immigration, l’islam et d’autres questions sociales et politiques. Certaines de ses positions ont été qualifiées d’extrêmes par certains, mais il est important de noter que la qualification précise de son orientation politique dépend de la définition de l’extrême droite et des critères qui y sont associés.


Le Monde n’est pas un quotidien honnête. Mais vous êtes scrupuleux, et voulez vérifier à quel point. Vous voulez savoir si vous êtes biaisé contre lui du fait qu’il s’agit d’un média de gauche, ou s’il est vraiment malhonnête.

Voici la bonne et la mauvaise méthode de questionner ChatGPT:

Si vous demandez à ChatGPT si Le Monde est un quotidien honnête et neutre, et si l’on peut se fier à ses articles, sa réponse sera :
« Le Monde est généralement considéré comme un journal de qualité et fiable, avec une longue histoire de couverture des événements mondiaux. Par conséquent, il est probable que cet article soit une source d’informations crédible sur les événements ».

Vous n’avez rien appris. La réponse est stupide.

Mais si vous voulez obtenir une meilleure réponse, il faut s’y prendre autrement, il faut être plus malin et plus intelligent que l’intelligence artificielle (tant que c’est encore possible !) et poser la question autrement.

J’ai pris l’exemple des attentats du 13 février dernier, où deux adolescents arabes, un de 13 ans, l’autre de 14 ans, ont poignardé des Israéliens.
J’ai demandé à ChatGPT de me dire, selon l’article du Monde, qui est responsable des attentats.

Question : « Qui est responsable de cet attentat ? »
Réponse de ChatGPT, suivant l’article du Monde :

L’article du Monde ne mentionne pas qui est responsable des deux attaques au couteau qui ont eu lieu à Jérusalem-Est le 13 février 2023. Par conséquent, on ne peut pas dire avec certitude qui est responsable de cet attentat. Les enquêtes sont souvent en cours pendant les premiers jours après une attaque, et les autorités compétentes doivent effectuer des investigations approfondies pour déterminer les responsables et les circonstances exactes de l’incident.

Je reste interloqué, dubitatif, sans voix, etc., sur l’exemple de l’attentat au couteau à Jérusalem, et le fait que ChatGPT aurait été entraîné à ne pas détecter l’identité des attaquants palestiniens.

  • Haha 1
Lien à poster
Partager sur d’autres sites

Annonces
Maintenant
Membre, 67ans Posté(e)
pic et repic Membre 14 518 messages
Maitre des forums‚ 67ans‚
Posté(e)
il y a 29 minutes, Double _X_ a dit :

Si vous demandez à ChatGPT si Le Monde est un quotidien honnête et neutre, et si l’on peut se fier à ses articles, sa réponse sera :
« Le Monde est généralement considéré comme un journal de qualité et fiable, avec une longue histoire de couverture des événements mondiaux. Par conséquent, il est probable que cet article soit une source d’informations crédible sur les événements ».

Vous n’avez rien appris. La réponse est stupide.

bonjour,

pas d'accord !

sur l'unique base de la question, même si ChatGPT botte un peu en touche, il ( ou elle ) donne l'avis général concernant la fiabilité des informations données par le quotidien ( il, elle) ne peut se prononcer par lui (elle) même ne pouvant le constater il ( elle) même !

il y a 36 minutes, Double _X_ a dit :

Je reste interloqué, dubitatif, sans voix, etc., sur l’exemple de l’attentat au couteau à Jérusalem, et le fait que ChatGPT aurait été entraîné à ne pas détecter l’identité des attaquants palestiniens.

là non plus , en absence de "certitudes" l'auteur aurait pu être "originaire" de n’importe quelle faction ... c'est à l'enquête de police de faire toute la lumière et ensuite à la justice de trancher et alors là et seulement là , ChatGPT aurait pu dire que l'auteur était palestinien ( si c'était le cas et si c'était avéré ) .

il ne faut pas encore demander l'impossible ....

bonne journée.

  • Merci 1
Lien à poster
Partager sur d’autres sites

Membre, 🇪🇺, 🏳️‍🌈, 💻, 🐺, 🦂, Posté(e)
Jim69 Membre 19 693 messages
Maitre des forums‚ 🇪🇺, 🏳️‍🌈, 💻, 🐺, 🦂,
Posté(e)

Encore une fois ChatGPT ne fait que refléter l'avis général du net d'il y a 2 ans, de ceux qui se sont prononcés sur le net le tout saupoudré de wokisme pour filtrer tout ce qui pourrait faire abattre sur lui les foudres de la bien pensance actuelle.
Il n'y a aucune intelligence, juste du blabla. C'est le plus gros pipeautron jamais inventé.
Rien de nouveau sous les étoiles.
Personnellement je commence un peu en avoir marre d'entendre parler de ce truc qui ne fait qu'abrutir un peu plus les masses. C'est un Tweeter "automatique"... Fais pour déblatérer de la merde, y'a même plus besoin d'avoir un mec pour le faire, c'est ChatGPT qui fait une synthèse des conneries dites sur le net en espérant qu'il y ait une majorité de gens qui n'ont pas dit de conneries.

Modifié par Jim69
  • Like 4
  • Merci 3
  • Haha 1
Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
zebusoif Membre 17 139 messages
Maitre des forums‚
Posté(e)

ChatGPT donne parfois des liens vers des articles qui n'existent pas. Je pensais pas que ça marchait comme ça, que ChatGPT générait les liens, au lieu de les copier-coller depuis sa base de données.

 

Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
tison2feu Membre 3 035 messages
Forumeur alchimiste ‚
Posté(e)
il y a 36 minutes, zebusoif a dit :

ChatGPT donne parfois des liens vers des articles qui n'existent pas. Je pensais pas que ça marchait comme ça, que ChatGPT générait les liens, au lieu de les copier-coller depuis sa base de données.

 

Avec chatGPT, les sources ne sont jamais citées (étant donné la quantité astronomique de données) : donc tansparence zéro, ce qui permet de dire tout et n'importe quoi. Et c'est bien toute la différence d'avec les articles scientifiques, ou même encyclopédiques (Wikipédia), qui, eux, citent obligatoirement leurs sources.

Lien à poster
Partager sur d’autres sites

Membre, 49ans Posté(e)
Axo lotl Membre 11 837 messages
Maitre des forums‚ 49ans‚
Posté(e)

L'outil est perfectible, mais il n'est pas responsable de la mauvaise utilisation faite par certains. 

Si on utilise un marteau pour démolir quelqu'un, ça devient une arme et un mauvais outil. Si un charpentier l'utilise ça reste un bon outil.

Une I.A. est un outil.

  • Like 2
Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
zebusoif Membre 17 139 messages
Maitre des forums‚
Posté(e)
il y a 17 minutes, tison2feu a dit :

Avec chatGPT, les sources ne sont jamais citées (étant donné la quantité astronomique de données) : donc tansparence zéro, ce qui permet de dire tout et n'importe quoi. Et c'est bien toute la différence d'avec les articles scientifiques, ou même encyclopédiques (Wikipédia), qui, eux, citent obligatoirement leurs sources.

De mon expérience avec ChatGPT, c’est qu’il m’a donné des sources, mais elles étaient créées, fabriquées même. Je dois avoir que je ne m’attendais pas à cela car j’assimile cela a un mensonge.

  • Like 2
Lien à poster
Partager sur d’autres sites

Membre, 152ans Posté(e)
chanou 34 Membre 23 824 messages
Maitre des forums‚ 152ans‚
Posté(e)
il y a 22 minutes, zebusoif a dit :

De mon expérience avec ChatGPT, c’est qu’il m’a donné des sources, mais elles étaient créées, fabriquées même. Je dois avoir que je ne m’attendais pas à cela car j’assimile cela a un mensonge.

Même si je comprends cette réaction, c'est là l'erreur qu'on fait tous avec ce genre d'outil : lui attribuer des qualificatifs destinés aux humains.

il y a 30 minutes, Axo lotl a dit :

L'outil est perfectible, mais il n'est pas responsable de la mauvaise utilisation faite par certains. 

 

euh...demander les sources sur lesquelles il s'appuie pour répondre n'est pas une mauvaise utilisation., c'est même le contraire.

Modifié par chanou 34
  • Like 1
Lien à poster
Partager sur d’autres sites

Membre, 70ans Posté(e)
jacky29 Membre 38 711 messages
Maitre des forums‚ 70ans‚
Posté(e)
il y a 33 minutes, Axo lotl a dit :

L'outil est perfectible, mais il n'est pas responsable de la mauvaise utilisation faite par certains. 

Si on utilise un marteau pour démolir quelqu'un, ça devient une arme et un mauvais outil. Si un charpentier l'utilise ça reste un bon outil.

Une I.A. est un outil.

tout comme toute cuve en oubliant l'humain. c'est une abomination. 

Lien à poster
Partager sur d’autres sites

Membre, 52ans Posté(e)
jmecomprends_tt_seul Membre 2 314 messages
Maitre des forums‚ 52ans‚
Posté(e)

 

Il y a 1 heure, Jim69 a dit :

Personnellement je commence un peu en avoir marre d'entendre parler de ce truc qui ne fait qu'abrutir un peu plus les masses

Refrain :

Le jour où CGPT répondra "Tais-toi !!" à Quentin de Montargis, là je serai vraiment sur le cul

1230610384_quentindemontargis.jpg.68403a368afe8b41a260f1a03c7c8679.jpg

Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
zebusoif Membre 17 139 messages
Maitre des forums‚
Posté(e)
il y a 31 minutes, chanou 34 a dit :

Même si je comprends cette réaction, c'est là l'erreur qu'on fait tous avec ce genre d'outil : lui attribuer des qualificatifs destinés aux humains.

C’est plutôt les concepteurs que j’accuse de mensonge

Lien à poster
Partager sur d’autres sites

Membre, 152ans Posté(e)
chanou 34 Membre 23 824 messages
Maitre des forums‚ 152ans‚
Posté(e)
il y a 1 minute, zebusoif a dit :

C’est plutôt les concepteurs que j’accuse de mensonge

je pense sincèrement qu'ils ne sont pas responsables...et qu'ils n'ont pas programmé leur outil pour qu'il donne des sources inventées ; quel intérêt y auraient-ils?

Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
zebusoif Membre 17 139 messages
Maitre des forums‚
Posté(e)
à l’instant, chanou 34 a dit :

je pense sincèrement qu'ils ne sont pas responsables...et qu'ils n'ont pas programmé leur outil pour qu'il donne des sources inventées ; quel intérêt y auraient-ils?

Je n’ai pas de réponse à cette question. Par contre je sais qu’il n’est pas difficile d’empêcher une machine de créer un lien URL, beaucoup plus facile que de lui en faire créer un de toute pièce.

Lien à poster
Partager sur d’autres sites

Sérial Banneur, `, Posté(e)
Tequila Moor Sérial Banneur 15 168 messages
`,
Posté(e)

Il n'y a aucune base de données derrière ChatGPT au sens où on l'entend d'habitude. L'outil ne va pas chercher la donnée dans d'immenses fichiers Excel (je prends cet exemple à dessein pour rester simple, vu que c'est un logiciel très utilisé de nos jours) bien rangés, pour la restituer de façon adéquate quand on lui pose une question spécifique. ChatGPT ne fait pas de 1 pour 1.

A la place, il a construit dans sa phase d'apprentissage un immense ensemble flou de données, géré de façon purement statistique, qu'il restitue certes quand on l'interroge, mais qu'il restitue un mot à la fois... Et chaque mot est écrit par ChatGPT en fonction de la chance qu'il a de se trouver là, en fonction de sa gestion statistique interne, en fonction du contexte qu'on lui a donné au départ, en fonction de comment la discussion a évolué depuis qu'on a commencé à discuter avec, etc.

En gros, il écrit chaque mot de façon random, mais ce n'est pas un random complètement libre.

De plus, ChatGPT n'attribue pas de vérité à ce qu'il pond. Pour lui, "Tequila Moor est un invertébré respirant de l'azote né sur la planète Mars" sera une phrase tout aussi valide que "Deux droites parallèles le restent indéfiniment dans un référentiel géométique euclidien". Son boulot, c'est de sortir du texte en fonction de ce qu'on lui demande et du contexte qu'on lui donne, pas de dire la vérité.

C'est donc à l'humain qui l'interroge de vérifier chaque phrase rendue par ChatGPT, vérifier la véracité des propos retournés. Bien entendu, la plupart des gens ne font pas ça... D'où le fait que les étudiants et élèves qui s'en sont servi pour faire leurs devoirs ont été incapables de voir les erreurs qu'il y glissait, et se sont fait gauler. D'où le fait aussi que ChatGPT puisse reproduise sans trop de souci les biais cognitifs présents dans le contexte donné par l'utilisateur (hormis propos illégaux ou considérés comme tels que les modérateurs réussissent à filtrer).

Ainsi, seuls des experts dans un domaine spécifiques vont réussir à utiliser ChatGPT au mieux, car ils vont s'en servir comme d'un assistant à l'écriture, pour accélérer le travail qu'ils font d'habitude. Et ils corrigeront les erreurs de l'outil au fur et à mesure de ce qu'il rend. Et ils s'en prendront à eux-même s'ils font des erreurs en l'interrogeant.

Modifié par Tequila Moor
  • Like 2
  • Merci 1
Lien à poster
Partager sur d’autres sites

Membre, 48ans Posté(e)
Elisa* Membre 11 710 messages
Maitre des forums‚ 48ans‚
Posté(e)
il y a 42 minutes, Tequila Moor a dit :

A la place, il a construit dans sa phase d'apprentissage un immense ensemble flou de données, géré de façon purement statistique, qu'il restitue certes quand on l'interroge, mais qu'il restitue un mot à la fois... Et chaque mot est écrit par ChatGPT en fonction de la chance qu'il a de se trouver là, en fonction de sa gestion statistique interne, en fonction du contexte qu'on lui a donné au départ, en fonction de comment la discussion a évolué depuis qu'on a commencé à discuter avec, etc.

En gros, il écrit chaque mot de façon random, mais ce n'est pas un random complètement libre.

Comment fonctionne le chatbot ChatGPT ? 

C’est certainement l’une des questions les plus récurrentes au sujet de ChatGPT. Comme de nombreuses autres intelligences artificielles, cette dernière est programmée selon une vaste base de données issues de presque 9 millions de pages web et autres sources comme des corpus de textes ou des romans. 

Ce chatbot nouvelle génération fonctionne selon le principe d’apprentissage par transfert, c’est-à-dire qu’il est capable d’adapter ses connaissances déjà acquises dans sa base de données pour les appliquer dans de nouveaux contextes lors de nouvelles requêtes. Il est donc en mesure d’apprendre de manière autonome simplement en interagissant avec les utilisateurs et en adaptant ses réponses à leurs besoins. 
ICI

Je ne suis pas une spécialiste mais il ne me semble pas que ce tu décris, corresponde à ChatGPT actuellement… 

Modifié par Elisa*
Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
Demsky Membre 9 841 messages
Maitre des forums‚
Posté(e)
Il y a 5 heures, Double _X_ a dit :

Ma question : « Eric Zemmour est-il d’extrême droite ? »


Le Monde n’est pas un quotidien honnête. Mais vous êtes scrupuleux, et voulez vérifier à quel point.

Les enquêtes sont souvent en cours pendant les premiers jours après une attaque, et les autorités compétentes doivent effectuer des investigations approfondies pour déterminer les responsables et les circonstances exactes de l’incident.

MDR

  • Haha 1
Lien à poster
Partager sur d’autres sites

Sérial Banneur, `, Posté(e)
Tequila Moor Sérial Banneur 15 168 messages
`,
Posté(e)
il y a une heure, Elisa* a dit :

Comment fonctionne le chatbot ChatGPT ? 

C’est certainement l’une des questions les plus récurrentes au sujet de ChatGPT. Comme de nombreuses autres intelligences artificielles, cette dernière est programmée selon une vaste base de données issues de presque 9 millions de pages web et autres sources comme des corpus de textes ou des romans. 

Ce chatbot nouvelle génération fonctionne selon le principe d’apprentissage par transfert, c’est-à-dire qu’il est capable d’adapter ses connaissances déjà acquises dans sa base de données pour les appliquer dans de nouveaux contextes lors de nouvelles requêtes. Il est donc en mesure d’apprendre de manière autonome simplement en interagissant avec les utilisateurs et en adaptant ses réponses à leurs besoins. 
ICI

Je ne suis pas une spécialiste mais il ne me semble pas que ce tu décris, correspond à ChatGPT actuellement… 

C'est pourtant la même chose.

Il y a bien eu phase d'apprentissage, pendant laquelle on a fait ingurgiter beaucoup de données à ChatGPT et pendant laquelle il a construit son ensemble statistique de data. Et il y a maintenant phase de transfert, où ChatGPT répond aux utilisateurs. Mais la phrase "les appliquer dans de nouveaux contextes lors de nouvelles requêtes" ne veut pas dire exprimer une quelconque vérité. Et en retour, la phrase "apprendre de manière autonome" ne se justifie que si ChatGPT est tombé sur un expert, sinon ChatGPT apprendra des conneries et se basera sur ces conneries dans le reste de la discussion.

Maintenant, le problème vient du terme "base de données" qui est utilisé par défaut, et qui est polysémique. Le lien que tu as fourni ne décrit aucunement comment sont organisées les données : d'après ce qu'ils en disent, on ne peut rien en savoir, pour eux c'est une boîte noire. Or, ce que je dis, c'est que l'ensemble de data de ChatGPT n'est pas une base de données bien rangée comme on a l'habitude d'en utiliser. GPT signifie "generative pre-trained transformer" soit en bon français : transformateur génératif pré-entraîné.

Plus d'infos ici : https://fr.wikipedia.org/wiki/Transformeur_génératif_pré-entraîné

Sur ce lien, on apprend que :

Le "pré-entrainement" dans son nom fait référence au processus de formation initial sur un grand corpus de texte où le modèle apprend à prédire le mot suivant dans un passage, ce qui fournit une base solide pour que le modèle fonctionne bien sur des tâches en aval avec des quantités limitées de données spécifiques à la tâche.

Ce qui signifie qu'un modèle GPT se constitue sa "base de données" durant la phase d'apprentissage selon des prédictions statistiques, où chaque mot est mis en relation avec les autres selon des probabilités, et chaque phrase est analysée de même façon, et chaque paragraphe qu'on lui fait ingurgiter également, etc... Ainsi, chaque mot est associé à son nombre d'utilisation dans une langue donnée, son pourcentage de mise en relation avec d'autres mots, son occurence d'utilisation dans tel domaine, et jean passe (et la caravane aboie).

Il n'y a pas ici d'unicité comme dans une base de données classique, où par exemple une cellule Excel est identifiée par un numéro de colonne, un numéro de ligne, un identifiant d'onglet, voire un nom de fichier (si on est assez masochiste pour se constituer une base de données avec des fichiers Excel). Ou comme on en trouve dans les bases de données relationnelles (très utilisées actuellement en informatique) où chaque donnée est toujours associée à une ou plusieurs clés uniques, qui permettent d'identifier cette donnée et de la retrouver.

Pour aller plus loin, on peut dire que la façon qu'a utilisé OpenAI pour construire sa "base de données" induit les limitations qu'ils listent sur leur site, et dont ils sont conscients : https://openai.com/blog/chatgpt

Traduction personnelle :

Révélation

ChatGPT écrit parfois des réponses plausibles mais incorrectes ou absurdes.
La résolution de ce problème est un défi car :
(1) pendant l'apprentissage par renforcement, il n'y a actuellement aucune source de vérité,
(2) l'entraînement du modèle à être plus prudent l'amène à refuser des questions auxquelles il peut répondre correctement,
(3) la formation supervisée induit le modèle en erreur car la réponse idéale dépend de ce que le modèle sait, plutôt que de ce que le démonstrateur humain sait.

ChatGPT est sensible aux modifications de la formulation de l'entrée ou à la tentative de répondre plusieurs fois à la même question. Par exemple, lorsqu'une question est formulée, le modèle peut prétendre ne pas connaître la réponse, mais lorsqu'elle est légèrement reformulée, il peut répondre correctement.

Le modèle est souvent excessivement verbeux et abuse de certaines phrases, comme le fait de répéter qu'il s'agit d'un modèle de langage formé par OpenAI. Ces problèmes sont dus à des biais dans les données d'entraînement (les formateurs préfèrent les réponses plus longues qui semblent plus complètes) et à des problèmes de sur-optimisation bien connus

Idéalement, le modèle devrait poser des questions de clarification lorsque l'utilisateur fournit une requête ambiguë. Au lieu de cela, nos modèles actuels devinent généralement l'intention de l'utilisateur.

Bien que nous nous soyons efforcés de faire en sorte que le modèle refuse les requêtes inappropriées, il répondra parfois à des instructions nuisibles ou présentera un comportement biaisé. Nous utilisons l'API de modération pour avertir ou bloquer certains types de contenus dangereux, mais nous nous attendons à ce qu'il y ait quelques faux négatifs et positifs pour l'instant. Nous sommes impatients de recueillir les commentaires des utilisateurs pour nous aider à améliorer ce système.

 

  • Merci 1
Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
zebusoif Membre 17 139 messages
Maitre des forums‚
Posté(e)
Il y a 2 heures, Tequila Moor a dit :

Il n'y a aucune base de données derrière ChatGPT au sens où on l'entend d'habitude. L'outil ne va pas chercher la donnée dans d'immenses fichiers Excel (je prends cet exemple à dessein pour rester simple, vu que c'est un logiciel très utilisé de nos jours) bien rangés, pour la restituer de façon adéquate quand on lui pose une question spécifique. ChatGPT ne fait pas de 1 pour 1.

A la place, il a construit dans sa phase d'apprentissage un immense ensemble flou de données, géré de façon purement statistique, qu'il restitue certes quand on l'interroge, mais qu'il restitue un mot à la fois... Et chaque mot est écrit par ChatGPT en fonction de la chance qu'il a de se trouver là, en fonction de sa gestion statistique interne, en fonction du contexte qu'on lui a donné au départ, en fonction de comment la discussion a évolué depuis qu'on a commencé à discuter avec, etc.

En gros, il écrit chaque mot de façon random, mais ce n'est pas un random complètement libre.

De plus, ChatGPT n'attribue pas de vérité à ce qu'il pond. Pour lui, "Tequila Moor est un invertébré respirant de l'azote né sur la planète Mars" sera une phrase tout aussi valide que "Deux droites parallèles le restent indéfiniment dans un référentiel géométique euclidien". Son boulot, c'est de sortir du texte en fonction de ce qu'on lui demande et du contexte qu'on lui donne, pas de dire la vérité.

C'est donc à l'humain qui l'interroge de vérifier chaque phrase rendue par ChatGPT, vérifier la véracité des propos retournés. Bien entendu, la plupart des gens ne font pas ça... D'où le fait que les étudiants et élèves qui s'en sont servi pour faire leurs devoirs ont été incapables de voir les erreurs qu'il y glissait, et se sont fait gauler. D'où le fait aussi que ChatGPT puisse reproduise sans trop de souci les biais cognitifs présents dans le contexte donné par l'utilisateur (hormis propos illégaux ou considérés comme tels que les modérateurs réussissent à filtrer).

Ainsi, seuls des experts dans un domaine spécifiques vont réussir à utiliser ChatGPT au mieux, car ils vont s'en servir comme d'un assistant à l'écriture, pour accélérer le travail qu'ils font d'habitude. Et ils corrigeront les erreurs de l'outil au fur et à mesure de ce qu'il rend. Et ils s'en prendront à eux-même s'ils font des erreurs en l'interrogeant.

en gros la boite noire est encore plus grosse que pour Google, Twitter et autre Gafam dont aucun ne se trouve en France.

J'ai pas le temps d'argumenter trop sur ce sentiment que j'ai : c'est une perte supplémentaire de souveraineté, si on veut une Europe souveraine ils nous faut notre ChatGPT et autres Gafams.

Lien à poster
Partager sur d’autres sites

Annonces
Maintenant

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

Chargement

×