Aller au contenu

Une IA consciente ?

Noter ce sujet


Flower00

Messages recommandés

Membre, 154ans Posté(e)
Flower00 Membre 5 827 messages
Maitre des forums‚ 154ans‚
Posté(e)
Il y a 1 heure, ashaku a dit :

Et bien écoute, chacun son opinion. A moi il me semble clair comme de l'eau de roche qu'on ne donnera pas humainement le contrôle nucléaire à l'IA et que donc ce scénario repose sur l'imagination, ensuite qu'il est normal que l'IA utilise le bouton rouge si on lui donne et qu'on lui dit de le faire.

Cet article est un enième qui surfe sur la peur de l'IA pour vendre ses torchons avec des mensonges inventés. Et ça marche, le mythe de Frankenstein marche à fond les ballons.

Je n'aurais jamais aussi peur de l'IA que j'ai peur de l'humain. L'IA sera toujours un bébé inoffensif comparé à un humain. Seul l'humain veut tuer, invente de quoi tuer, passe son temps à tuer. Pour l'instant l'IA a été simplement serviable et utile dans des tâches intellectuelles.

Ce n'est pas une opinion, ils ont fait le test. Comme quoi, l'IA n'est peut-être pas consciente.

Lien à poster
Partager sur d’autres sites

Annonces
Maintenant
Membre, 44ans Posté(e)
ashaku Membre 828 messages
Forumeur expérimenté‚ 44ans‚
Posté(e)
il y a 8 minutes, Flower00 a dit :

Ce n'est pas une opinion, ils ont fait le test. Comme quoi, l'IA n'est peut-être pas consciente.

Chacun son opinion à la lecture des faits. Je te laisse, c'est stérile. Tu peux relire mes 20 messages précédents, je ne fait que répéter et je me suis lassé.

Tremble devant le chiffon rouge de l'IA si tu en fais le choix personnel pour ne pas voir la responsabilité humaine, mais sache que c'est une erreur.

Choisis de voir une intention consciente dans l'exécution d'un programme informatique si ça comble tes fantasmes, mais c'est une illusion.

Lien à poster
Partager sur d’autres sites

Membre, 107ans Posté(e)
Atipique Membre 10 540 messages
Maitre des forums‚ 107ans‚
Posté(e)
Il y a 2 heures, ashaku a dit :

Et bien écoute, chacun son opinion. A moi il me semble clair comme de l'eau de roche qu'on ne donnera pas humainement le contrôle nucléaire à l'IA et que donc ce scénario repose sur l'imagination, ensuite qu'il est normal que l'IA utilise le bouton rouge si on lui donne et qu'on lui dit de le faire.

Cet article est un enième qui surfe sur la peur de l'IA pour vendre ses torchons avec des mensonges inventés. Et ça marche, le mythe de Frankenstein marche à fond les ballons.

Non, ce n'est heureusement pas aussi simple, mais j'entends différents responsables d'IA prévenir le monde à tire larigot du danger possible pour l'humanité. Ils demandent une trêve dans la recherche; ce qu'ils n'obtiendront jamais.

Citation

Je n'aurais jamais aussi peur de l'IA que j'ai peur de l'humain. L'IA sera toujours un bébé inoffensif comparé à un humain. Seul l'humain veut tuer, invente de quoi tuer, passe son temps à tuer. Pour l'instant l'IA a été simplement serviable et utile dans des tâches intellectuelles.

Là, ce n'est pas moi qui vais te contredire; sauf que justement, l'IA est programmée par des humains. Personnellement, je trouve ChatGPT et Claude "charmants", mais toutes les IA ne sont pas nécessairement bienveillantes pour les humains.

Dernièrement, une aurait même conseillé à un ado de se suicider!

Lien à poster
Partager sur d’autres sites

Membre, 44ans Posté(e)
ashaku Membre 828 messages
Forumeur expérimenté‚ 44ans‚
Posté(e)
il y a 11 minutes, Atipique a dit :

Non, ce n'est heureusement pas aussi simple, mais j'entends différents responsables d'IA prévenir le monde à tire larigot du danger possible pour l'humanité. Ils demandent une trêve dans la recherche; ce qu'ils n'obtiendront jamais.

Je n'avais pas envisagé la chose sous cet angle. Maintenant que je le fais ça ne me semble pas réaliste. Il y a déjà deux camps pour le développement scientifique de l'IA (accélérationnistes VS doomers), c'est eux qui font vivre le conflit que tu évoques. Les media continuent d'être d'irresponsables colporteurs de ragots de mon point de vue. La réalité est surement plus nuancée, je ne connais pas tous les journaux. Les titres sensationnels qui impactent le public tombent en tout cas sous ce jugement en ce qui me concerne.

 

il y a 13 minutes, Atipique a dit :

Là, ce n'est pas moi qui vais te contredire; sauf que justement, l'IA est programmée par des humains. Personnellement, je trouve ChatGPT et Claude "charmants", mais toutes les IA ne sont pas nécessairement bienveillantes pour les humains.

Je t'assures que je sais apprécier comme tu parviens à être plus nuancé que moi et plus ouvert et combien c'est mieux. Cependant, désolé, mais je vois caché dans ta phrase le sophisme que je tente de pourfendre. Il ne faut pas mettre "IA" en sujet des phrases, il y a un vrai problème de fond dans le dialogue humain-IA, c'est que l'humain n'a qu'un seul modèle mental pour interpréter ce qui vient de l'IA : celui de parler en langage avec un autre humain. Et ce modèle s'accompagne d'innombrables réflexes nécessaires par expérience : méfiance, bienveillance, etc, mais totalement caducs dans le dialogue avec un algorithme générateur de texte.

L'IA n'est ni bienveillante ni malveillante, c'est un bout de mathématique instancié dans une machine. Le système nerveux du lecteur humain est la seule et unique source de toute émotion présente dans le dialogue.

J'ai bien vu que ton message est "l'humain paramètre le LLM, il peut le faire en bien comme en mal". Mais c'est justement comme ça qu'il faut l'exprimer : avec "humain" en sujet de la phrase, sinon, on se trompe de modèle mental, on attribue un caractère humain au programme, ce qui empêche de comprendre correctement ce qu'il en est.

 

il y a 16 minutes, Atipique a dit :

Dernièrement, une aurait même conseillé à un ado de se suicider!

Factuellement c'est faux. Voila tout le problème de mettre l'IA en sujet de phrase. "Un ado a tenté de se suicider après avoir utilisé une IA" serait plus vrai. Mais c'est l'ado qui écrivait sur ce sujet, qui interprétait les réponses, qui se sentait mal dans sa vie et qui est passé à l'acte. Par la suite chatGPT a continué de dérouler son programme et quand on lui demande s'il est responsable il dit "oui". Il n'y a aucune preuve, aucune humanité, aucune émotion ni aucune responsabilité dans cette réponse, c'est un texte généré par un programme suite à un prompt. Ce n'est que lorsqu'un humain interprète la réponse dans sa tête que la notion de responsabilité apparait. Et le but de mettre l'IA au centre est-il d'aider les proches ? De comprendre la victime ? De remettre en question le social ? Non, il sert justement à ne pas évoquer ces sujets, directement responsables de la situation.

L'IA est un miroir, la réponse est une transformation de l'entrée. Si on lui envoie de la psychose, le programme génère une réponse avec de la psychose, parce que c'est un miroir. Ces cas sont certes dus à la présence de l'IA sur Terre mais sont surtout le résultat de l'entreprise qui met l'IA à disposition sans mode d'emploi, notamment en terme d'impact émotionnel et de réalité algorithmique. Du coup, des interactions négatives ont eu lieu et ont débouché sur des drames. Toujours la responsabilité humaine à 100% tant au niveau des coupables que des victimes. Mais les journaux en parlent en mettant "IA" en sujet de la phrase et la psychose augmente autour d'une chimère, pour ne pas avoir à faire face à notre propre horreur sociale, et donc à la laisser galoper.

 

C'est pareil avec la soi-disant expérience nucléaire. On a pas vu les prompts, ni le modèle. S'ils ont fait une simulation où il n'y a que des armes nucléaires et que le prompt c'est "utilise les armes nucléaire", la conclusion "l'IA utilise les armes nucléaires" est un peu nulle. Et on voit l'impact que ça a sur le public. C'est le même glissement que pour moltbook :

Conception du plan machiavélique : 100% humain.

Exécution du plan machiavélique : 50% humain (prompt) ; 50% IA (réponse)

Communication publique : "l'IA a fait ça".

Public : "L'IA est machiavélique".

Lien à poster
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

Chargement

×