Aller au contenu

Une machine peut-elle être consciente ?


gamut

Messages recommandés

Membre, Posté(e)
gamut Membre 3 messages
Baby Forumeur‚
Posté(e)

Sachant que le cerveau humain et de certains animaux permet la conscience, ne peut-on envisager de reproduire un tel phénomène sur une machine ?

Finalement, le cerveau, c'est bien sûr des cellules des hormones etc...

mais au final, c'est des signaux élèctriques transmis de cellule en cellule permettant le traitement de l'information.

Lien à poster
Partager sur d’autres sites

Annonces
Maintenant
Invité sfc
Invités, Posté(e)
Invité sfc
Invité sfc Invités 0 message
Posté(e)
mais au final, c'est des signaux élèctriques transmis de cellule en cellule permettant le traitement de l'information.

pas que sa . par exemple le cerveau produit aussi de l'endorphine et substance P , qui régule , le bien être et le mal être , sans sa est ce que ta machine pourrais être vraiment consciente ? je pense pas .

Lien à poster
Partager sur d’autres sites

Membre, 33ans Posté(e)
Mr.Hankey Membre 1 841 messages
Baby Forumeur‚ 33ans‚
Posté(e)

Oui, regarde les robots au japon, ils fabriquent des robots-humains, très ressemblant et impressionnant.

Lien à poster
Partager sur d’autres sites

Membre, Bubon baveux de Belzébuth, 37ans Posté(e)
casdenor Membre 11 203 messages
37ans‚ Bubon baveux de Belzébuth,
Posté(e)

Si l'on considère le monde comme provenant uniquement de la matière, oui, c'est possible. En revanche, il faut quand même partir de cette hypothèse pour avoir une certitude de possibilité.

Lien à poster
Partager sur d’autres sites

Invité sfc
Invités, Posté(e)
Invité sfc
Invité sfc Invités 0 message
Posté(e)

Oui, regarde les robots au japon, ils fabriquent des robots-humains, très ressemblant et impressionnant.

oui mais c'est qu'une programation qui donne l'image qu'on a voulu , tu croie vraiment qu'une machine , peu avoir peur , aimer , haïr , on parle bien de conscience , pour moi , même si une machine est capable de faire beaucoup de chose pour moi c'est pas une conscience .

Lien à poster
Partager sur d’autres sites

Membre, 90°, 49ans Posté(e)
miq75 Membre 2 862 messages
49ans‚ 90°,
Posté(e)

Actuellement, non.

La conscience, du point de vue neuronal, c'est plein de choses assez difficile à décrire. Ça passe par la conscience de l'entité individuelle, mais aussi par la présence d'un inconscient qui supervise. Les machines, même les plus "intelligentes" ou les meilleures imitatrices, sont extrêmement loin de reproduire la complexité d'un cerveau humain ou animal (de ceux qu'on pourrait qualifier de conscients).

Le cerveau est une machine qui contient plusieurs couches d'abstractions. Aujourd'hui, on sais reproduire partiellement la première couche, la purement mécanique, on balbutie avec la seconde (les systèmes permettant l'apprentissage), mais on ne sais ni gérer les couches plus élevées (ni même combien il y en a d'ailleurs), ni faire une première couche aussi complexe et riche que celle d'un être humain conscient.

La mémoire aussi est quelque chose qu'on ne comprends pas. Autant un ordinateur stocke des 0 et des 1 auxquels on (le programme) donne un sens abstrait, autant qui peut dire comment est stockée l'information dans un cerveau ? Comment est stocké le sens ?

À titre de comparaisons :

-1 ordinateur, même le plus puissant, est linéaire. 1 processus actif à la fois sur 1 processeur (ou 1 cœur).

-1 cerveau humain est complètement parallélisé et simultané, au point que la notion de processus disparait, c'est une interaction physique entre toutes les altérations chimiques locales qui est le support d'une pensée (pour ce qu'on en comprends).

-1 processeur, c'est au plus (en étant large) 109 transistors, fixes, qui n'évoluent pas, et qui renvoient soit 0, soit 1.

-1 cerveau, c'est 100⋅109 neurones, qui sont connectés à 100 autres en moyenne, qui sont malléables et dont les connections évoluent en permanence et chacun sert d'accumulateur électrique gérant une plage de valeurs continues (on est bien loin du 0 ou 1 des transistors).

Et encore, je ne parle pas de l'âme, dont on ne sais même pas si elle est nécessaire à la conscience, existante, matérielle ou purement abstraite, ni comment elle est (ou pourrait-être si on n'y crois pas) connecté en tant que composante immatérielle à une machine purement matérielle.

Alors non, pour toutes ces raisons, la conscience n'est pas à la portée de nos machines actuelles. Une imitation, à la limite, mais le test de Turing est resté inviolé à ma connaissance.

Alors oui, l'informatique évolue et la loi de Moore semble nous montrer qu'à un moment on aura équivalents mécaniques fonctionnels au cerveau, en quantité. Mais dans combien de temps ? Et qu'en sera-t-il de la qualité ?

Personnellement, je parierai qu'on arrivera à faire des machines conscientes. Mais pas avant une bonne centaine d'année (et à la condition qu'on continue sur notre lancée de progrès technologique) et certainement pas sur des machines à base de silicium, dont on commence à atteindre les limites physiques. La techno qui me parait la plus prometteuse, c'est les éprouvettes.

Lien à poster
Partager sur d’autres sites

Membre, 58ans Posté(e)
noureddine2 Membre 4 036 messages
Forumeur activiste‚ 58ans‚
Posté(e)

je pense que la conscience est le passage entre le déterminisme et le libre arbitre , agir librement sans être prédictible , quand un ordinateur joue aux échec , si on connait son logiciel , on peut prédire ce qu'il va jouer ,

peut être qu'une personne est consciente si on ne peut pas prédire ce qu'elle va faire .

peut être que les réflexes sont déterministes et ne font pas partie de la conscience .

Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
le merle Membre 21 605 messages
Maitre des forums‚
Posté(e)

bonjour

je pense que les machines deviendront un jour conscientes car, suivant theilard des jardin ,la conscience naitrait de la complexitée du cerveau donc, les machines peuvent atteindre un niveau de complexitée qui le permette .

mais ,pour certains chercheurs ,la conscience viendrait d'une autre ( dimention ) ? bonne journée.

Lien à poster
Partager sur d’autres sites

Membre, 90°, 49ans Posté(e)
miq75 Membre 2 862 messages
49ans‚ 90°,
Posté(e)

quand un ordinateur joue aux échec , si on connait son logiciel , on peut prédire ce qu'il va jouer

ou pas.

Ce n'est pas parce qu'on peut analyser le logiciel qu'on peut prédire ses avancées. C'est même le contraire qu'on cherche à faire, en émergence (une branche de l'IA) : Se faire surprendre par les résultats du programme. Plus ils sont imprévus, plus on est content...

Lien à poster
Partager sur d’autres sites

Membre, 58ans Posté(e)
noureddine2 Membre 4 036 messages
Forumeur activiste‚ 58ans‚
Posté(e)

ou pas.

Ce n'est pas parce qu'on peut analyser le logiciel qu'on peut prédire ses avancées. C'est même le contraire qu'on cherche à faire, en émergence (une branche de l'IA) : Se faire surprendre par les résultats du programme. Plus ils sont imprévus, plus on est content...

peux tu donner un lien qui parle d'émergence en informatique et IA ?

par exemple Windows émerge de plusieurs sous logiciels ,qui émergent d'autre sous logiciels écrits en langage machine ou binaire .

pour moi si windows nous surprend ,cela veut dire qu'il a fait une erreur à cause du matériel

, c'est vrai que les synchronisation des horloges , on ne peut pas les prévoir à 100 %

Lien à poster
Partager sur d’autres sites

Membre, 90°, 49ans Posté(e)
miq75 Membre 2 862 messages
49ans‚ 90°,
Posté(e)

Je n'ai pas de liens en français consultables directement sur internet. Mais je peut te donner un exemple d'émergence, traité dans une thèse que j'ai lue durant mes études. Il s'agissait d'une thèse à propos d'un animat (robot imitant un animal) à 6 pattes dont le système de déplacement était un réseau de neurones (http://fr.wikipedia.org/wiki/Réseau_de_neurones_artificiels – ce qui implique un apprentissage utilisant une fonction d'évaluation).

Trois fonctions d'évaluations se sont succédées :

La première renforçait les comportements qui permettait le plus grand déplacement du centre de gravité de la machine.

Le résultat fut que l'animat oscillait entre deux positions, très rapidement. Ce n'était pas le but recherché, mais c'était un comportement émergent.

La seconde renforçait bien plus les comportements qui permettait d'augmenter les déplacement en avant que les autres, pour déjouer le piège de l'oscillation.

Le résultat fut que l'animat tournait en rond, sur des très petits cercles. Ce n'était pas non plus le but recherché, mais c'était là encore un comportement émergent.

La dernière version renforçait plus les comportements qui permettait d'augmenter les déplacements vers l'avant en face et pénalisait de l'écart en degré par rapport à la direction précédente.

Le résultat fut enfin que l'animat parcourait l'espace disponible comme on s'y attendait.

L'apprentissage, en informatique, se base sur un espace malléable dont la fonction finale est de créer un comportement. Cet espace est vierge, mais certaines briques structurelles viennent le remplir, d'abord au hasard, puis en testant les résultats du comportement (qui au début sont complètement vides de sens), on essaie d'améliorer le tir en disant : ça ça fait quelque chose, le prochain test on essaie de modifier un peu ça, mais pas trop, voir si ça améliore – ou en disant ça, ça ne fonctionne pas, on change plein de trucs dedans pour essayer de trouver mieux. Ces test sont entièrement programmés, il sont fait par la machine et le programmeur n'intervient plus du tout dedans. Cette construction automatisée de l'intérieur de l'espace s'appelle apprentissage, et s'il est plus ou moins contrôlé par les résultats du comportement (évalués, et donc guidés, par la fonction d'évaluation) il n'en reste pas moins pour autant dirigé en grande partie par le hasard.

Plus ce hasard est grand, plus l'espace malléable est complexe, et plus on a la possibilité d'une émergence de comportements. Mais ces comportements ne sont pas "prévus" directement par le codeur. À la limite ils peuvent être étudiés à postériori, et on peut comprendre pourquoi les schémas ainsi construits fonctionnent (dans le cas de l'animat, on s'est rendu compte que le schéma final reproduisait le fonctionnement en électronique qu'on aurait créé à la main pour faire avancer l'animat, 3 pattes par 3 pattes), mais ils ne sont pas "pensés à l'avance", ils sont "découverts" par le système capable d'"apprentissage". C'est ça qu'on appelle "émergence" en informatique.

Et la panacée, en émergence, c'est quand on connait une solution, qu'on essaie de la faire "apprendre" (en fait, chercher avec un hasard orienté et trouver par "apprentissage"), et que le résultat final est une meilleure solution que celle qu'on avait. Là, la machine nous bat, et c'est ce qu'on cherche, en IA.

Lien à poster
Partager sur d’autres sites

Membre, 58ans Posté(e)
noureddine2 Membre 4 036 messages
Forumeur activiste‚ 58ans‚
Posté(e)

Et la panacée, en émergence, c'est quand on connait une solution, qu'on essaie de la faire "apprendre" (en fait, chercher avec un hasard orienté et trouver par "apprentissage"), et que le résultat final est une meilleure solution que celle qu'on avait. Là, la machine nous bat, et c'est ce qu'on cherche, en IA.

l'enfant apprend de ses erreurs , si on fait un logiciel parfait , on peut prédire le résultat , et puisque le logiciel contient des erreurs bien sure que le résultat sera différent de ce qu'on a prévu , et pour minimiser les dégâts , on demande au robot de faire des essais et de réparer de lui même les erreurs qu'on a fait .

c'est comme l’histoire des fourmis qui cherchent la nourriture dans toutes les directions sans négliger aucune direction .

Lien à poster
Partager sur d’autres sites

Membre, 90°, 49ans Posté(e)
miq75 Membre 2 862 messages
49ans‚ 90°,
Posté(e)

Tu peut prédire ce que ferons tes enfants, toi ? Moi non.

Et encore une fois, non, on ne peut pas prédire le résultat de tout programme. On peut le guider, et avoir une idée approximative du résultat, mais pas systématiquement le prédire.

Lien à poster
Partager sur d’autres sites

Membre, 58ans Posté(e)
noureddine2 Membre 4 036 messages
Forumeur activiste‚ 58ans‚
Posté(e)

Et encore une fois, non, on ne peut pas prédire le résultat de tout programme. On peut le guider, et avoir une idée approximative du résultat, mais pas systématiquement le prédire.

on exécute un algorithme avec des données en entrée ,plusieurs fois sur papier on aura toujours à chaque fois le même résultat en sortie .

on exécute un algorithme avec des données en entrée ,plusieurs fois sur ordinateur on aura quelque fois en sortie des résultats différents .

et cette différence peut être causée par des perturbations thermiques qui peuvent agir sur les horloges et les compteurs ,

donc je pense qu'on peut prédire le résultat d'un algorithme exécuté sur papier .

mais sur ordinateur peut être qu'on ne pourra pas prédire le résultat à cause de l'effet des perturbations thermique sur les horloges .

est ce que tu es d'accord avec moi qu'on peut prédire le résultat d'un algorithme exécuté sur papier ?

Lien à poster
Partager sur d’autres sites

Membre, 90°, 49ans Posté(e)
miq75 Membre 2 862 messages
49ans‚ 90°,
Posté(e)

non. Si on exécute plusieurs fois un algorithme avec des données en entrées et qu'au moins l'une des instructions est un random (par exemple un choix aléatoire entre 0 et 1), on aura à chaque fois un résultat partiellement imprévisible.

Quand on fait de l'apprentissage, on fait des randoms à chaque cycle, au bout de plusieurs milliers de cycles, on ne peut absolument pas prédire ce qui va sortir précisément (on peut seulement prédire un espace des possibilités), sauf si on a trop contraint le système, ce qui n'a aucun intérêt.

Ce ne sont pas des perturbations thermiques ou autres ersatz physiques qui introduisent le hasard dans ces programmes, il est introduit volontairement, algorithmiquement.

Maintenant, si on introduit aucun hasard volontairement, on peut effectivement prédire le résultat, sauf bug (au niveau du programme lui même, du compilateur/interpréteur ou de l'OS).

Lien à poster
Partager sur d’autres sites

Membre, 105ans Posté(e)
Madame. Membre 932 messages
Baby Forumeur‚ 105ans‚
Posté(e)

Bien sûr qu'une machine peut être consciente, l'ordinateur HAL 9000 nous en a donné la preuve.

268.gif

Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
Wipe Membre 4 815 messages
Baby Forumeur‚
Posté(e)

non. Si on exécute plusieurs fois un algorithme avec des données en entrées et qu'au moins l'une des instructions est un random (par exemple un choix aléatoire entre 0 et 1), on aura à chaque fois un résultat partiellement imprévisible.

En fait même sans introduire de hasard, vu que le propre d'un réseau de neurone est l'apprentissage, les mêmes entrées n'auront pas toujours le même résultat. Le résultat dépend des entrées ET des expérience précédentes, comme pour les humains.

Mais effectivement, pour le moment on est loin de pouvoir contraire des réseaux avec autant de neurones que le cerveau humain, et même si c'était le cas, les composant électronique n'ont pas la même souplesse que les tissus vivants. Peut être qu'avec l'avancée des nanotechnologies on aboutira à quelque chose, mais c'est pas pour tout de suite.

Lien à poster
Partager sur d’autres sites

Membre, 90°, 49ans Posté(e)
miq75 Membre 2 862 messages
49ans‚ 90°,
Posté(e)

En fait même sans introduire de hasard, vu que le propre d'un réseau de neurone est l'apprentissage, les mêmes entrées n'auront pas toujours le même résultat. Le résultat dépend des entrées ET des expérience précédentes, comme pour les humains.

Alors techniquement, pour le coup, si les entrées sont exactement les mêmes (durant toute la phase d'apprentissage – que tu appelle expériences précédentes) et qu'il n'y a aucun hasard dans l'algorithme, on aura bien le même résultat à deux exécutions différentes, hormis bug.

Mais l'apprentissage est toujours basé sur du hasard à un moment donné de l'algorithme (y compris les réseaux de neurones, par exemple lors de l'attribution de nouveaux poids à des synapses en mode exploration), justement pour éviter cette répétition. Ça peut être un truc tout con, qui apparemment n'a que très peu d'influence (genre le choix entre +2 ou +3 sur la prochaine synapse qu'on teste), mais c'est bien du hasard, hasard qui permet que deux apprentissages différents ne donneront pas nécessairement le même résultat "appris", voir des résultats radicalement opposés.

Après, à l'utilisation, c'est un autre problème. Effectivement, deux systèmes d'apprentissage n'ayant pas eu les mêmes entrées durant leur apprentissage, pour un jeu de données identiques entré en exploitation, donnerons potentiellement des résultats différents, même si le hasard n'est pas utilisé durant l'exploitation. Mais si les entrées durant l'apprentissage ont aussi été absolument identiques, on aura le même résultat.

Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
Wipe Membre 4 815 messages
Baby Forumeur‚
Posté(e)

Alors techniquement, pour le coup, si les entrées sont exactement les mêmes (durant toute la phase d'apprentissage – que tu appelle expériences précédentes) et qu'il n'y a aucun hasard dans l'algorithme, on aura bien le même résultat à deux exécutions différentes, hormis bug.

Non. Exemple simple : on te propose des salsifis, tu n'en a jamais mangé. Tu goutes, et c'est pas bon. Si on te repropose des salsifis, tu ne les gouteras plus. On a donc bien deux fois les mêmes données en entrées (les salsifis), et un résultat différent la deuxième fois.

Mais l'apprentissage est toujours basé sur du hasard à un moment donné de l'algorithme (y compris les réseaux de neurones, par exemple lors de l'attribution de nouveaux poids à des synapses en mode exploration)

On peut fixer les poids initiaux des synapses d'un réseau au hasard, mais ça n'est absolument pas une obligation. Quand à l'apprentissage proprement dit, l'algorithme de rétropropagation ne fait pas intervenir le hasard.

Lien à poster
Partager sur d’autres sites

Membre, 90°, 49ans Posté(e)
miq75 Membre 2 862 messages
49ans‚ 90°,
Posté(e)

Alors techniquement, pour le coup, si les entrées sont exactement les mêmes (durant toute la phase d'apprentissage – que tu appelle expériences précédentes) et qu'il n'y a aucun hasard dans l'algorithme, on aura bien le même résultat à deux exécutions différentes, hormis bug.

Non. Exemple simple : on te propose des salsifis, tu n'en a jamais mangé. Tu goutes, et c'est pas bon. Si on te repropose des salsifis, tu ne les gouteras plus. On a donc bien deux fois les mêmes données en entrées (les salsifis), et un résultat différent la deuxième fois.

Dans ton exemple, on a pas les mêmes entrées. Dans ton premier cas il n'y a pas eu d'apprentissage avant, dans ton second cas il y a eu apprentissage avant (la première fois que tu y as goûté). J'ai parlé de "données identiques durant toute la phase d'apprentissage" donc ton exemple ne rentre pas dans le champ de ce dont je parles. En plus de cela, je ne suis pas certain que la comparaison entre l'apprentissage du goût chez l'humain et celui qu'on fait faire à une machine soit pertinent, dans la mesure ou on ne sais pas précisément comment l'homme apprends. Alors que la machine, on sait comment on cherche à lui faire découvrir des choses, et ça ne se fait pas en une itération.
Mais l'apprentissage est toujours basé sur du hasard à un moment donné de l'algorithme (y compris les réseaux de neurones, par exemple lors de l'attribution de nouveaux poids à des synapses en mode exploration)

On peut fixer les poids initiaux des synapses d'un réseau au hasard, mais ça n'est absolument pas une obligation. Quand à l'apprentissage proprement dit, l'algorithme de rétropropagation ne fait pas intervenir le hasard.

Je ne parle pas des poids initiaux, ni de l'agorithme de rétropropagation, qui n'est qu'un des nombreux composant de l'apprentissage automatisé (et qui ne lui suffit pas). Je parle des altérations que l'on choisit arbitrairement de faire lors de chaque itération de l'exploration. Dans toutes les formes d'apprentissage informatique supervisé, ces choix sont fait à un certain niveau arbitrairement, pour les raisons que j'ai déjà citées. Sinon comment sélectionner par exemple quelle synapse modifier ? Tu t'imagines que c'est fait linéairement, une synapse après l'autre, selon leur ordre en mémoire ? Non, on en tire une ou plusieurs au hasard, selon le modèle désiré d'altération.
Lien à poster
Partager sur d’autres sites

Annonces
Maintenant

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.

×