Aller au contenu

Étude - L'humain a une confiance aveugle envers le robot, même s'il le conduit à sa perte


Aurore234

Messages recommandés

Membre, 63ans Posté(e)
Aurore234 Membre 1 055 messages
Forumeur survitaminé‚ 63ans‚
Posté(e)

ROBOT - L'"expérience de Milgram" reste encore aujourd'hui l'une des plus célèbres expérimentations scientifiques de l'histoire de la psychologie. Que se passerait-il si, à la place d'un scientifique, les humains n'avaient d'autre choix que de faire confiance à un robot ? Seraient-ils aussi crédules ? Pour le savoir, des chercheurs américains ont mené l'expérience.

Vous en avez sans doute déjà entendu parler. Au début des années 1960, Stanley Milgram, chercheur à Yale, demande à des individus sélectionnés par petite annonce d'infliger des chocs électriques d'intensité croissante à d'autres individus lorsqu'ils échouent à retenir des mots. En réalité, ces derniers sont des acteurs, et ils ne reçoivent en fait aucune charge électrique.

L'expérience se déroulait sous la supervision d'un scientifique dont le but était justement de faire croire aux cobayes qu'ils participaient à une étude sur l'influence de la punition sur l'apprentissage. Résultat, 65% d'entre eux allèrent jusqu'à la tension maximale, et potentiellement mortelle, de 450 volts. Flippant.

Suite et lien

Mon lien

Lien à poster
Partager sur d’autres sites

Annonces
Maintenant
Membre, 51ans Posté(e)
Crabe_fantome Membre 47 126 messages
Maitre des forums‚ 51ans‚
Posté(e)

Je ne vois pas le rapport entre l'expérience de Milgram et celle avec le robot... Milgram cherchait à démontrer la soumission à l'autorité (qui est le titre de son livre). Or dans la seconde expérience les cobayes ne se soumette pas à l'autorité, ils font confiance à une machine qui a été programmée et validée pour remplir une tache de la même manière que si quelqu'un était venu nous chercher, d'autant que les cobayes sont dans un environnement qu'ils ne connaissent pas si j'ai bien compris. Bref ce n'est pas le même rapport. Je fais confiance à mon aspirateur ou à ma voiture parce qu'ils ont été conçu pour fonctionner.

Pour illustrer de façon dramatique, une erreur d'aiguillage a placé deux avions face à face. Dans ces cas les ordinateurs de bord communiquent en urgence entre eux et s'accordent sur une manoeuvre instantanément: le premier ordonne de monter, le second ordonne de descendre et l'écart augmentant ils se placent en sécurité... sauf que l'un des pilote a refusé de faire confiance à son robot et les avions se sont percuté.

Le robot n'a aucun intérêt, il n'a rien à gagné, aucune motivation... C'est la dernière chose capable de me mentir ou de me voler, bien sur que j'ai confiance.

Lien à poster
Partager sur d’autres sites

Invité micro-onde
Invités, Posté(e)
Invité micro-onde
Invité micro-onde Invités 0 message
Posté(e)
1457570935[/url]' post='10143260']

Je ne vois pas le rapport entre l'expérience de Milgram et celle avec le robot... Milgram cherchait à démontrer la soumission à l'autorité (qui est le titre de son livre). Or dans la seconde expérience les cobayes ne se soumette pas à l'autorité, ils font confiance à une machine qui a été programmée et validée pour remplir une tache de la même manière que si quelqu'un était venu nous chercher, d'autant que les cobayes sont dans un environnement qu'ils ne connaissent pas si j'ai bien compris. Bref ce n'est pas le même rapport. Je fais confiance à mon aspirateur ou à ma voiture parce qu'ils ont été conçu pour fonctionner.

Pour illustrer de façon dramatique, une erreur d'aiguillage a placé deux avions face à face. Dans ces cas les ordinateurs de bord communiquent en urgence entre eux et s'accordent sur une manoeuvre instantanément: le premier ordonne de monter, le second ordonne de descendre et l'écart augmentant ils se placent en sécurité... sauf que l'un des pilote a refusé de faire confiance à son robot et les avions se sont percuté.

Le robot n'a aucun intérêt, il n'a rien à gagné, aucune motivation... C'est la dernière chose capable de me mentir ou de me voler, bien sur que j'ai confiance.

sauf si ils se trompe!Un détecteur d'altitude défectueux et c'est le drame. Voila pourquoi il y a encore des pilotes dans les avions sinon ils auraient été remplacés par le pilote automatique,on possède la technologie pour le faire.
Lien à poster
Partager sur d’autres sites

Membre, Forumeur confit, Posté(e)
Enchantant Membre 16 244 messages
Forumeur confit,
Posté(e)

Bonjour Aurore234,

Le robot est un outil, il n'y a aucune raison pour l'humain, au cours de son utilisation de douter de sa fonction d'usage.

J'évoque ici la conduite automobile, complètement automatisée ?

Le problème posé et qui me semble effectivement d'une actualité futur proche,comment définir la part de responsabilité en cas de sinistre entre l'humain et le constructeur du robot ou de l'outil ?

Ce n'est pas simple de légiférer sur ce sujet !

Lien à poster
Partager sur d’autres sites

Membre, 51ans Posté(e)
Crabe_fantome Membre 47 126 messages
Maitre des forums‚ 51ans‚
Posté(e)

sauf si ils se trompe!Un détecteur d'altitude défectueux et c'est le drame. Voila pourquoi il y a encore des pilotes dans les avions sinon ils auraient été remplacés par le pilote automatique,on possède la technologie pour le faire.

Mais qui est plus à même de se tromper entre l'homme et la machine ? Une machine qui est désormais champion du monde de GO depuis hier... Une machine bardée de capteurs avec un temps de réaction quasi instantanée...

Alors oui il y a eut un peu de taule froissée avec la Google Car ce mois si suite à une manœuvre que la voiture robot n'a pas su analyser. Mais tout les autres accidents, c'était l'homme qui était responsable.

Lien à poster
Partager sur d’autres sites

Membre, forumeuse acharnée, Posté(e)
querida13 Membre 46 223 messages
forumeuse acharnée,
Posté(e)

Il étonnant de constater à quel point est élevé le nombre de bouts de métal automatisés auxquels nous confions nos existences:trains,voitures,bateaux,ascenseurs,ordinateurs de bord,télésièges et téléphériques....

Sans aucun mécanisme nous le faisons aussi pour l' acier du béton armé,alors que nous savons depuis le 11 septembre que les tours gigantesques qui ont été bâties ne peuvent guère être évacuées!

Lien à poster
Partager sur d’autres sites

Membre, Forumeur confit, Posté(e)
Enchantant Membre 16 244 messages
Forumeur confit,
Posté(e)

Il est vrai qu'avec l'automatisation informatique complète, on est ( en théorie ) à l'abri d'une dépression humaine, comme ce fut le cas pour le pilote de la GermanWing!

Lien à poster
Partager sur d’autres sites

Membre, 63ans Posté(e)
Aurore234 Membre 1 055 messages
Forumeur survitaminé‚ 63ans‚
Posté(e)

Bonjour Aurore234,

Le robot est un outil, il n'y a aucune raison pour l'humain, au cours de son utilisation de douter de sa fonction d'usage.

J'évoque ici la conduite automobile, complètement automatisée ?

Le problème posé et qui me semble effectivement d'une actualité futur proche,comment définir la part de responsabilité en cas de sinistre entre l'humain et le constructeur du robot ou de l'outil ?

Ce n'est pas simple de légiférer sur ce sujet !

Je ne sais pas si tu as lu l'article dans son intégralité avec l'aide de mon lien, mais ce qui m'a préoccupée, c'est la façon dont tous les humains ont suivi le robot, au lieu de suivre les panneaux pourtant bien lisibles.

Lien à poster
Partager sur d’autres sites

Membre, Forumeur confit, Posté(e)
Enchantant Membre 16 244 messages
Forumeur confit,
Posté(e)

Bonjour Aurore234

C'est un article que j'avais déjà lu au siècle dernier.

Si je me réfère aux procès de Nuremberg, pour de nombreux juges, il y avait plusieurs nature de crimes, les crimes de guerre, les crimes contre la paix, les crimes contre l'humanité.

Bien malin qui peut faire la distinction de nature entre ces types de crimes, sinon la justice des vainqueurs.

Dans toutes guerres, toutes époques, tous soldats, tous combattants, de tous côtés, est un meurtrier et un assassin en puissance.

La notion de l'outil, de l'armement, du robot, son usage au cours d'un conflit, éloigne mentalement la grande majorités des hommes, de toutes empathies, de toutes compassions, de toute humanité envers les victimes. Comment pourrait il en être autrement ?

La grande majorités des assassins nazis utilisaient l'argument du respect et de l'application des ordres et de la mission qu'on leur avait confié pour justifier de leurs actes.

Pour résumé mon propos, le test en question prouvant que les humains réagissent comme des moutons, est ce vraiment une découverte, une nouveauté,est ce utile de le savoir pour l'avenir ?

Lien à poster
Partager sur d’autres sites

Invité
Invités, Posté(e)
Invité
Invité Invités 0 message
Posté(e)

Je ne vois pas le rapport entre l'expérience de Milgram et celle avec le robot... Milgram cherchait à démontrer la soumission à l'autorité (qui est le titre de son livre). Or dans la seconde expérience les cobayes ne se soumette pas à l'autorité, ils font confiance à une machine qui a été programmée et validée pour remplir une tache de la même manière que si quelqu'un était venu nous chercher, d'autant que les cobayes sont dans un environnement qu'ils ne connaissent pas si j'ai bien compris. Bref ce n'est pas le même rapport. Je fais confiance à mon aspirateur ou à ma voiture parce qu'ils ont été conçu pour fonctionner.

L'expé n'est pas si éloignée de celle de Milgram. Il vaut mieux cliquer sur l'article original, qui est un peu plus complet, pour s'en rendre compte :

Dans un premier temps, les sujets ont été guidés par le robot qui devait les amener dans une salle. Mais ce robot a buggué, et malgré ce dysfonctionnement les cobayes l'ont suivi.

2e situation : le robot est censé guider les sujets vers la sortie alors qu'ils sont en situation de danger (un incendie est simulé). Les gens le suivent, malgré le précédent dysfonctionnement, malgré l'indication "Sortie" sur une porte... qu'ils ne prennent pas.

La machine fait bel et bien "figure d'autorité", comme c'est le cas de la blouse blanche dans l'expé de Milgram...

Lien à poster
Partager sur d’autres sites

Invité
Invités, Posté(e)
Invité
Invité Invités 0 message
Posté(e)

Pour résumé mon propos, le test en question prouvant que les humains réagissent comme des moutons, est ce vraiment une découverte, une nouveauté,est ce utile de le savoir pour l'avenir ?

Ben... "la nouveauté" c'est tout de même le transfert de l'autorité sur un robot, même dans une situation ou le robot ne se montre pas performant. C'est un peu inquiétant dans un monde qui ne jure plus que par l'intelligence artificielle :/

Lien à poster
Partager sur d’autres sites

Membre, Forumeur confit, Posté(e)
Enchantant Membre 16 244 messages
Forumeur confit,
Posté(e)

BonjourThéia,

Entre faire confiance à la robotique ou ne pas faire confiance, et en ce cas, il s'agit de débrancher le système. Qui nous dit que la bande de moutons humains ne pourrait pas collectivement se tromper et faire des erreurs, au même titre qu'un bug informatique ?

Que certains d'entre nous ou médias, ne jure plus que pas l'Intelligence artificielle et si vous lisez mes propos sur le sujet, je ne suis pas de ceux là.

Lien à poster
Partager sur d’autres sites

Membre, 51ans Posté(e)
Crabe_fantome Membre 47 126 messages
Maitre des forums‚ 51ans‚
Posté(e)

L'expé n'est pas si éloignée de celle de Milgram. Il vaut mieux cliquer sur l'article original, qui est un peu plus complet, pour s'en rendre compte :

Dans un premier temps, les sujets ont été guidés par le robot qui devait les amener dans une salle. Mais ce robot a buggué, et malgré ce dysfonctionnement les cobayes l'ont suivi.

2e situation : le robot est censé guider les sujets vers la sortie alors qu'ils sont en situation de danger (un incendie est simulé). Les gens le suivent, malgré le précédent dysfonctionnement, malgré l'indication "Sortie" sur une porte... qu'ils ne prennent pas.

La machine fait bel et bien "figure d'autorité", comme c'est le cas de la blouse blanche dans l'expé de Milgram...

Cependant dans l'expérience de Migram il fallait une figure d'autorité qui prenne sur lui la responsabilité pour que le cobaye se soumette et transfère son autorité pour faire souffrir le comédien avec des décharges. Là le cobaye risque sa propre vie (si l'incendie venait à être réel) et le robot se présente comme une alternative à sauver sa vie.

Reste que j'avais négligé le "bug" du robot effectivement.

L'autre point est je crois le manque de crédibilité de l'expérience parce qu'en cas d'incendie avéré, personne ne va rester derrière un robot qui roule à 1.8 km/h et qui n'est pas conçu pour descendre les escaliers... Je théoriserais sur le fait que les cobayes qui ont suivi le robot, l'ont fait par amusement ou curiosité durant une simulation avérée.

Lien à poster
Partager sur d’autres sites

Invité
Invités, Posté(e)
Invité
Invité Invités 0 message
Posté(e)

L'autre point est je crois le manque de crédibilité de l'expérience parce qu'en cas d'incendie avéré, personne ne va rester derrière un robot qui roule à 1.8 km/h et qui n'est pas conçu pour descendre les escaliers... Je théoriserais sur le fait que les cobayes qui ont suivi le robot, l'ont fait par amusement ou curiosité durant une simulation avérée.

oui c'est possible (en tout cas je l'espère !), on ne sait pas trop si les cobayes ont vraiment cru à l'incendie. A leur place j'en aurais sûrement un peu douté. C'est une drôle de coïncidence qu'un incendie se déclare en pleine expé ;-)

Lien à poster
Partager sur d’autres sites

Membre, 51ans Posté(e)
Crabe_fantome Membre 47 126 messages
Maitre des forums‚ 51ans‚
Posté(e)

oui c'est possible (en tout cas je l'espère !), on ne sait pas trop si les cobayes ont vraiment cru à l'incendie. A leur place j'en aurais sûrement un peu douté. C'est une drôle de coïncidence qu'un incendie se déclare en pleine expé ;-)

Y a une fumée qui doit sentir la fumée de spectacle et on voit une personne qui n'est pas du tout dépitée en suivant le robot qui tourne en rond... perso si je suis pris dans un incendie et que je décide de suivre un robot malgré tout, si je vois ce robot se foutre de ma gueule il finit en pièce à coups d'extincteur !!! ;) Je pense qu'on aurait à la limite un meilleur résultat si le robot était "humanoïde".

Lien à poster
Partager sur d’autres sites

Membre, 63ans Posté(e)
Aurore234 Membre 1 055 messages
Forumeur survitaminé‚ 63ans‚
Posté(e)

Bonjour Aurore234

C'est un article que j'avais déjà lu au siècle dernier.

Si je me réfère aux procès de Nuremberg, pour de nombreux juges, il y avait plusieurs nature de crimes, les crimes de guerre, les crimes contre la paix, les crimes contre l'humanité.

Bien malin qui peut faire la distinction de nature entre ces types de crimes, sinon la justice des vainqueurs.

Dans toutes guerres, toutes époques, tous soldats, tous combattants, de tous côtés, est un meurtrier et un assassin en puissance.

La notion de l'outil, de l'armement, du robot, son usage au cours d'un conflit, éloigne mentalement la grande majorités des hommes, de toutes empathies, de toutes compassions, de toute humanité envers les victimes. Comment pourrait il en être autrement ?

La grande majorités des assassins nazis utilisaient l'argument du respect et de l'application des ordres et de la mission qu'on leur avait confié pour justifier de leurs actes.

Pour résumé mon propos, le test en question prouvant que les humains réagissent comme des moutons, est ce vraiment une découverte, une nouveauté,est ce utile de le savoir pour l'avenir ?

La question ici, c'est qu'il s'agit de robots qui ont guidé des humains est il s'agissait là juste d'un test. Qu'en est-il si ces nouvelles technologies seront appliqués dans un futur proche ou lointoin?

On dit que l'erreur est humaine. Et les machines? Ou allons nous?

Lien à poster
Partager sur d’autres sites

Membre, Jedi pas oui, jedi pas no, 31ans Posté(e)
Jedino Membre 47 978 messages
31ans‚ Jedi pas oui, jedi pas no,
Posté(e)

Ce n'est pas vraiment une question de "moutonnage".

La seule chose que je vois dans cet article, c'est une confirmation de ce que nous faisons déjà entre humains : dès lors que quelqu'un (ou quelque chose) nous paraît plus apte à décider (par pouvoir sur nous ou parce qu'on estime qu'il est plus apte à, tout simplement), nous avons tendance à suivre sans trop réfléchir le choix que cette personne fait. C'est parfaitement indépendant de la justesse de ses choix : il n'y a là qu'une croyance en une espèce de supériorité de l'autre, en la croyance d'un acquis quasi-inéluctable, et qui tient de la foi (la foi pouvant ne pas être religieuse).

Par exemple, nous accordons toute notre confiance dans la science, que nous voyons comme la forme ultime de la connaissance et de la vérité. Pourtant, on pourrait très bien imaginer que ce que nous avons appris très tôt n'est qu'une tromperie. Le fait est que, dans la mesure où nous sommes persuadés/convaincus que tout ceci est la vérité, nous la suivons sans jamais vraiment en douter.

Ce même effet de non remise en doute se retrouve tant dans les relations classiques de hiérarchie (intellectuelle ou décisionnelle), ou bien même dans les groupes quelconques. D'où, d'ailleurs, la remarque de Kierkegaard concernant la "foule" qui est mensonge : seul l'individu pense et raisonne. S'il abandonne cela pour une quelconque raison, il deviendra ce qu'on appelle un "mouton", qui n'est en fait que notre tendance naturelle à préférer laisser les autres assumer le poids de la décision à notre place. Mais ce sont des choses qui se corrigent.

Lien à poster
Partager sur d’autres sites

Invité micro-onde
Invités, Posté(e)
Invité micro-onde
Invité micro-onde Invités 0 message
Posté(e)
1457730958[/url]' post='10146828']

La question ici, c'est qu'il s'agit de robots qui ont guidé des humains est il s'agissait là juste d'un test. Qu'en est-il si ces nouvelles technologies seront appliqués dans un futur proche ou lointoin?

On dit que l'erreur est humaine. Et les machines? Ou allons nous?

l'erreur est humaine mais un véritable désastre nécessite un ordinateur
bill gates

Lien à poster
Partager sur d’autres sites

Membre, 63ans Posté(e)
Aurore234 Membre 1 055 messages
Forumeur survitaminé‚ 63ans‚
Posté(e)

Voila LA bonne réponse!

:smile2:

Lien à poster
Partager sur d’autres sites

Annonces
Maintenant

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.

×