Aller au contenu

Quel avenir pour les robots tueurs de Google ?


Mr_Fox

Messages recommandés

Membre, 55ans Posté(e)
ping Membre 6 305 messages
Baby Forumeur‚ 55ans‚
Posté(e)

Le jour où personne ne reviendra de la guerre, c'est qu'elle aura été bien faite. 

B Vian 

 

Lien à poster
Partager sur d’autres sites

Annonces
Maintenant
  • Réponses 79
  • Créé
  • Dernière réponse
Membre, 50ans Posté(e)
Crabe_fantome Membre 45 407 messages
Maitre des forums‚ 50ans‚
Posté(e)
il y a 37 minutes, Roger_Lococo a dit :

Elle décide d'elle même c'est le principe d'une IA.

C'est beau les gens qui pensent tout contrôler et donnent des armes à des robots avec la latitude de tuer quiconque. 

Au lieu de faire une attaque perso concentrons nous sur le sujet: Soit l'IA décide d'elle même, elle n'a plus besoin de l'humain et elle a atteint son niveau de Singularité, et à ce moment là l'IA décide de tuer qui elle veut, ou de ne pas tuer, ou d'aller vivre aux Bahamas, ou de se faire des crêpes... Soit l'IA est programmée pour exécuter des ordres humains...

Si tu étais officier dans l'armée, tu choisirais une IA qui peut te désobéir ou une IA qui fera absolument tout ce que tu diras? C'est toi qui pose les thunes sur la table... Alors? 

Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
frunobulax Membre 15 684 messages
Maitre des forums‚
Posté(e)
il y a 41 minutes, Crabe_fantome a dit :

Au lieu de faire une attaque perso concentrons nous sur le sujet: Soit l'IA décide d'elle même, elle n'a plus besoin de l'humain et elle a atteint son niveau de Singularité, et à ce moment là l'IA décide de tuer qui elle veut, ou de ne pas tuer, ou d'aller vivre aux Bahamas, ou de se faire des crêpes... Soit l'IA est programmée pour exécuter des ordres humains...

Si tu étais officier dans l'armée, tu choisirais une IA qui peut te désobéir ou une IA qui fera absolument tout ce que tu diras? C'est toi qui pose les thunes sur la table... Alors? 

La question n'est pas de savoir si l'IA va obéir ou non vu que, dans l'état actuel de la technologie, elle va forcément "obéir".
Mais, par définition, le but de l'IA n'est pas de répondre à des ordres précis mais de prendre des décisions de façon autonome pour remplir la mission qui lui a été confiée.
La question est donc de savoir selon quels critères l'IA va prendre la décision d'intervenir ou non dans des situations ambiguës ?

Par définition, l'IA sera un "tueur froid", sans émotion et dont les décisions ne relèveront que de la logique et de la probabilité.
Tuer des innocents au nom de calculs de probabilités sera donc commun et admis ?
La notion de "bavure" n'existera donc plus, il ne s'agira plus que de probabilités défavorables.
Et l'armée n'aura donc plus de comptes à rendre en cas d'erreur.

Lien à poster
Partager sur d’autres sites

Membre, Animal sauvage, Posté(e)
Mr_Fox Membre 18 189 messages
Animal sauvage,
Posté(e)
il y a 21 minutes, Crabe_fantome a dit :

Au lieu de faire une attaque perso concentrons nous sur le sujet: Soit l'IA décide d'elle même, elle n'a plus besoin de l'humain et elle a atteint son niveau de Singularité, et à ce moment là l'IA décide de tuer qui elle veut, ou de ne pas tuer, ou d'aller vivre aux Bahamas, ou de se faire des crêpes... Soit l'IA est programmée pour exécuter des ordres humains...

Si tu étais officier dans l'armée, tu choisirais une IA qui peut te désobéir ou une IA qui fera absolument tout ce que tu diras? C'est toi qui pose les thunes sur la table... Alors? 

En fait si elle ne décidait pas elle ne serait pas une IA.

On lui donne des paramètres de mission du genre une liste de noms à éliminer, elle les retrouve et elle les bute.

Je peux te citer 100 façons dont les choses pourraient tourner super mal soit par des défaillances du programme, par des abus du programme, des défaillances d'entrée de données et des piratages.

Un exemple parmi des milliers de possibilités, on sait que les chinois ont la capacité de falsifier le signal GPS occasionnant des collisions entre les navires militaires américains et des cargos ou des pétroliers et des morts lors des collisions.

Il me semble clair qu'un drone agissant de manière autonome devra se référer au positionnement global pour naviguer, donc si les coordonnées qu'on lui envoie sont fausses il pourra croire agir d'une façon et agir en réalité d'une autre, tout comme le pilote d'un navire leurré par un signal inexact. Et à la fin en consultant les logs tu ne seras pas en mesure de voir ce qui a foiré parce que tout sera correct.

Par piratage de son signal une personne externe peut modifier les paramètres de mission, on peut aussi ajouter des cibles additionnelles dans l'ordinateur qui attribue les missions ou bien en retirer.

Actuellement si un drone se trouve atteint par un brouillage la mission est suspendue, avec un drone autonome la mission continue.

De quelle manière le drone tueur saura-t-il qu'il a trouvé la cible ? Sans conteste par renseignement d'origine electromagnétique, comm téléphonique ou mail. C'est déjà ce qui se fait depuis le début du programme d'assassinat ciblé, on balance des missiles sur des cartes sim.

La question n'est pas l'obéissance mais la capacité de remplir la mission. Si aujourd'hui les pilotes ne l'ont pas c'est parce que la mission est foireuse. C'est le commandement qui est en cause pas les exécutants. Et que fait un commandement qui est remis en cause ? Il vire les exécutants qui ne sont pas assez bons, car un chef ne se trompe jamais comme il a été démontré au millenium challenge 2002.

 

 

Lien à poster
Partager sur d’autres sites

Membre, 55ans Posté(e)
ping Membre 6 305 messages
Baby Forumeur‚ 55ans‚
Posté(e)

Sarah Connor ? 

Non, non c’est à côté....:pardon:

Lien à poster
Partager sur d’autres sites

Membre, 54ans Posté(e)
Foraveur Membre 6 426 messages
Baby Forumeur‚ 54ans‚
Posté(e)

"Les gens qui signent ne sont jamais conscients de ce qu'est l'armée, ".....non Roger vous faites erreur ..une partie ne l'est pas....

" Et que fait un commandement qui est remis en cause ? Il vire les exécutants qui ne sont pas assez bons, car un chef ne se trompe jamais comme il a été démontré au millenium challenge 2002. ".....erreur encore ....je connais aucun commandement fautif qui est encore en place....sauf si il est dégagé de toute faute apres enquete ...et des enquêtes j'en ai vu pas mal.....

Lien à poster
Partager sur d’autres sites

Membre, 40ans Posté(e)
cheuwing Membre 16 421 messages
Maitre des forums‚ 40ans‚
Posté(e)
il y a une heure, Roger_Lococo a dit :

Un exemple parmi des milliers de possibilités, on sait que les chinois ont la capacité de falsifier le signal GPS occasionnant des collisions entre les navires militaires américains et des cargos ou des pétroliers et des morts lors des collisions.

 

 

un signal GPS ne peut pas être falsifier autre part qu'à la source, soit les satellites en eux mêmes où les récepteurs

bref comme d'hab à raconter n'importe quoi

Lien à poster
Partager sur d’autres sites

Membre, 54ans Posté(e)
Foraveur Membre 6 426 messages
Baby Forumeur‚ 54ans‚
Posté(e)

c'est une veille légende urbaine ce truc de collision...même pas besoin d'argumenter dessus.....

" Et à la fin en consultant les logs tu ne seras pas en mesure de voir ce qui a foiré parce que tout sera correct. "....faux......les logs peuvent pas etre manipulés ...seuls ceux qui les retranscrivent peuvent l'être...encore une fois facteur humain.....

" Par piratage de son signal une personne externe peut modifier les paramètres de mission, on peut aussi ajouter des cibles additionnelles dans l'ordinateur qui attribue les missions ou bien en retirer. "...faux...d'autre part ce genre de systeme "tourne" en circuit fermé ...sans acces  avec l"extérieur".....avec des OS particuliers ....c'est pas Windows avec une prog en C++....

Lien à poster
Partager sur d’autres sites

Membre, 50ans Posté(e)
Crabe_fantome Membre 45 407 messages
Maitre des forums‚ 50ans‚
Posté(e)
Il y a 2 heures, frunobulax a dit :

La question n'est pas de savoir si l'IA va obéir ou non vu que, dans l'état actuel de la technologie, elle va forcément "obéir".
Mais, par définition, le but de l'IA n'est pas de répondre à des ordres précis mais de prendre des décisions de façon autonome pour remplir la mission qui lui a été confiée.
La question est donc de savoir selon quels critères l'IA va prendre la décision d'intervenir ou non dans des situations ambiguës ?

Par définition, l'IA sera un "tueur froid", sans émotion et dont les décisions ne relèveront que de la logique et de la probabilité.
Tuer des innocents au nom de calculs de probabilités sera donc commun et admis ?
La notion de "bavure" n'existera donc plus, il ne s'agira plus que de probabilités défavorables.
Et l'armée n'aura donc plus de comptes à rendre en cas d'erreur.

Je crois qu'on a pas la même définition de l'IA. Elle va être autonome "dans un cadre" au même titre que je vais programmer un chien robot à avoir la même intelligence qu'un chien (première limite), soumise à mon autorité où je peux la déconnecter quand je veux (seconde limite) et dans un cadre précis (troisième limite). Ce n'est pas une véritable autonomie.

 

Les critères ou la programmation de l'IA vont dépendre du niveau technologique de l'IA. Avec un niveau basique je lache un robot qui a pour consigne de neutraliser quiconque porte une arme. Avec un niveau plus évoluée le robot pourra neutraliser ceux qui portent une véritable arme (pas un jouet, ce qui ferait une très grosse différence avec le soldat qui sera amené à tuer à vu) et qui aurait un comportement menaçant (pas un berger qui part chasser un loup menaçant pour protéger son troupeau, seconde grosse différence avec un soldat qui ne prendrait pas le risque de le laisser armé). 

 

Par définition le robot serait effectivement un "tueur froid" mais à la différence du soldat d'aujourd'hui, il n'aura ni égo ni peur de mourir, ni de besoin d'humilier l'autre, ni même de violer femmes et enfants. 

Dans les deux cas, robot et humain, des innocents peuvent être tué, c'est le principe de la dégueulasserie de la guerre. Mais des innocents ne seront ni violés, ni exécutés en représailles, ni exécutés par crainte de représailles... Imagine une centaine de robots qui débarquent à Oradour, quelle est la probabilité qu'ils décident d'enfermer le village entier dans l'église et de les bruler vivant? S'il n'a pas été programmé pour ça, zéro. Je pense qu'un "tueur froid", en situation de guerre, est largement préférable à des "tueurs chauds". 

 

Quand à rendre des comptes effectivement à partir du moment où les robots de font pas de selfies sur des ennemis capturés ou tués dans des poses humiliantes pour tous le monde, ça va réduire considérablement la paperasse. Reste qu'une erreur est toujours possible et là il faudra voir pourquoi, comment et demander des comptes aux programmeurs et aux ingénieurs. 

 

 

Lien à poster
Partager sur d’autres sites

Membre, 55ans Posté(e)
ping Membre 6 305 messages
Baby Forumeur‚ 55ans‚
Posté(e)

On verra qu'ils sont devenus intelligents ces drones, le jour où ils commenceront à deserter. Des drones objecteurs de conscience, ça aurait de la gueule ça non?

Lien à poster
Partager sur d’autres sites

Membre, 50ans Posté(e)
Crabe_fantome Membre 45 407 messages
Maitre des forums‚ 50ans‚
Posté(e)
Il y a 2 heures, Roger_Lococo a dit :

En fait si elle ne décidait pas elle ne serait pas une IA.

On lui donne des paramètres de mission du genre une liste de noms à éliminer, elle les retrouve et elle les bute.

Je peux te citer 100 façons dont les choses pourraient tourner super mal soit par des défaillances du programme, par des abus du programme, des défaillances d'entrée de données et des piratages.

Un exemple parmi des milliers de possibilités, on sait que les chinois ont la capacité de falsifier le signal GPS occasionnant des collisions entre les navires militaires américains et des cargos ou des pétroliers et des morts lors des collisions.

Il me semble clair qu'un drone agissant de manière autonome devra se référer au positionnement global pour naviguer, donc si les coordonnées qu'on lui envoie sont fausses il pourra croire agir d'une façon et agir en réalité d'une autre, tout comme le pilote d'un navire leurré par un signal inexact. Et à la fin en consultant les logs tu ne seras pas en mesure de voir ce qui a foiré parce que tout sera correct.

Par piratage de son signal une personne externe peut modifier les paramètres de mission, on peut aussi ajouter des cibles additionnelles dans l'ordinateur qui attribue les missions ou bien en retirer.

Actuellement si un drone se trouve atteint par un brouillage la mission est suspendue, avec un drone autonome la mission continue.

De quelle manière le drone tueur saura-t-il qu'il a trouvé la cible ? Sans conteste par renseignement d'origine electromagnétique, comm téléphonique ou mail. C'est déjà ce qui se fait depuis le début du programme d'assassinat ciblé, on balance des missiles sur des cartes sim.

La question n'est pas l'obéissance mais la capacité de remplir la mission. Si aujourd'hui les pilotes ne l'ont pas c'est parce que la mission est foireuse. C'est le commandement qui est en cause pas les exécutants. Et que fait un commandement qui est remis en cause ? Il vire les exécutants qui ne sont pas assez bons, car un chef ne se trompe jamais comme il a été démontré au millenium challenge 2002.

 

La décision est limitée: je commande à ma voiture de m'emmener à Barcelonne, mais je me fiche de savoir quel chemin elle va prendre. Elle décidera des moyens mais je décide de mon objectif. 

 

Je n'imagine pas un seul instant un robot furtif façon guerre des étoiles qui cherchent et trouvent des gens dont on a que le nom. Et quand bien même, je n'imagine pas un instant que des ingénieurs n'aient pas réfléchis à ces milliers de possibilités de neutraliser cet éventuel robot furtif. 

 

Comment ça se passe aujourd'hui? On a des hommes du renseignement un peu partout qui vont nous dire où se trouve telle personne recherchée. On transmet l'info et un drone est lancé pour l'abattre avec son entourage parce qu'on a pas de missile "chirurgicaux" pour le moment. L'IA pourrait analyser à la place de 1000 hommes toutes les communications et images pouvant localiser la personne recherchée en complément du travail fait sur le terrain (un agent film une foule, l'IA trouve instantanément la personne recherché au lieu de mobiliser des gens à décortiquer les images). On associe les images et l'IA peut donner une probabilité de déplacement de la personne recherchée. Aujourd'hui si on veut cette personne morte on aura alors 2 possibilités: lancer un drone armé et exploser un village et ses innocents autour (mais on perd la bataille de l'opinion publique) ou positionner des snipers et l'abattre. Sinon plan B, on attend qu'il s'éloigne de la foule et on lance un drone armé. 

 

Si le robot et/ou l'IA n'a pas la capacité de remplir la mission, alors la mission est confiée à quelqu'un d'autre. 

Lien à poster
Partager sur d’autres sites

Membre, Animal sauvage, Posté(e)
Mr_Fox Membre 18 189 messages
Animal sauvage,
Posté(e)
Il y a 1 heure, Foraveur a dit :

"Les gens qui signent ne sont jamais conscients de ce qu'est l'armée, ".....non Roger vous faites erreur ..une partie ne l'est pas....

D'après l'ex-recruteur Jimmy Massey il y en a même pas mal. La vérité c'est que l'armée est le seul corps de métier que je connaisse qui ne recrute que des jeunes et les jeunes de cet age là ne connaissent rien ni à l'armée ni au monde du travail, pour eux il n'y a donc qu'un seul moyen pour eux de connaitre un peu l'armée c'est d'avoir des parents militaires.

Dire que les gens signent en connaissance de cause c'est faux. Et parmi ceux qui savent que le métier c'est de tuer, et qui sont d'accord et préparés, ce qu'ils veulent tuer c'est un ennemi. Les pilotes signent pour voler.

Citation

" Et que fait un commandement qui est remis en cause ? Il vire les exécutants qui ne sont pas assez bons, car un chef ne se trompe jamais comme il a été démontré au millenium challenge 2002. ".....erreur encore ....je connais aucun commandement fautif qui est encore en place....sauf si il est dégagé de toute faute apres enquete ...et des enquêtes j'en ai vu pas mal.....

Millenium Challenge 2002. 

Article 1 le chef a toujours raison,

Article 2 s'il a tort se référer à l'Article 1.

La mission drone c'est de la merde, c'était de la merde quand ça a commencé et aujourd'hui c'est toujours de la merde, sauf qu'aujourd'hui c'est pire. Et George Bush, Donald Rumsfeld et Dick Cheney ne seront pas l'objet d'une enquête. Ni leurs successeurs.

il y a une heure, Foraveur a dit :

c'est une veille légende urbaine ce truc de collision...même pas besoin d'argumenter dessus.....

En 2007 en Irak on pouvait capter les images d'un drone de l'armée américaine avec une carte TV et un logiciel à 25$ sur amazon. Et le GPS est bien plus ancien que ça, la sécurité est vraiment au top de chez top, t'es sur ? Un état étranger ne pourrait pas avoir ajouté un satellite qui clone le signal GPS pour leurrer des véhicules au sol induisant ainsi un mauvais guidage ?

Citation

" Et à la fin en consultant les logs tu ne seras pas en mesure de voir ce qui a foiré parce que tout sera correct. "....faux......les logs peuvent pas etre manipulés ...seuls ceux qui les retranscrivent peuvent l'être...encore une fois facteur humain.....

Les logs ne seront pas manipulés, ils seront authentiques et comporteront de fausses informations parce que l'appareil aura capté une fausse information qu'il aura authentiquement transcrite. Après par exemple si je suis une cible et que je roule dans uns voiture identique à celle de l'ambassadeur des états unis, que le drone capte mon téléphone à une coordonnée authentique et que j'ai falsifié le signal GPS reçu par le drone qui croit s'y trouver, il croit m'avoir en visuel et son missile tue l'ambassadeur. Et pourtant les logs sont authentiques.

MDR. :sleep:

Citation

" Par piratage de son signal une personne externe peut modifier les paramètres de mission, on peut aussi ajouter des cibles additionnelles dans l'ordinateur qui attribue les missions ou bien en retirer. "...faux...d'autre part ce genre de systeme "tourne" en circuit fermé ...sans acces  avec l"extérieur".....avec des OS particuliers ....c'est pas Windows avec une prog en C++....

On dit ça mais des sources ça se vole. J'ai le souvenir d'un drone RQ-170 qui a été intercepté par l'Iran et posé au sol par ceux qui ont détourné le signal en 2011. Le RQ-170 c'est sous windows XP ? Les comm étaient en clair ? Piloté via internet explorer 8 ?

Tu vois le truc, soit le système n'est pas fiable parce qu'on fait voler des engins vulnérables, soit ceux d'en face ont la capacité de casser les comms. Dans tous les cas la sécurité est compromise. N'importe qui peut se faire buter si on rend l'arme autonome.

 

Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
frunobulax Membre 15 684 messages
Maitre des forums‚
Posté(e)
il y a 32 minutes, Crabe_fantome a dit :

Je crois qu'on a pas la même définition de l'IA. Elle va être autonome "dans un cadre" au même titre que je vais programmer un chien robot à avoir la même intelligence qu'un chien (première limite), soumise à mon autorité où je peux la déconnecter quand je veux (seconde limite) et dans un cadre précis (troisième limite). Ce n'est pas une véritable autonomie.

Je ne partage effectivement pas votre point de vue ...

Le principe de l'IA n'est pas de "copier" une intelligence (humaine, canine ou ce que vous voulez) mais de simuler des processus cognitifs permettant la prise de décisions face à des situation non préalablement programmées.

L'objectif est donc que des machines (militaires ou non) dotées d'IA puissent prendre des décisions de façon autonome face à des situations +ou- complexes impossibles à prévoir/programmer à l'avance.
C'est justement ce qui différencie l'IA d'un super-calculateur qui ne fait que consulter (et appliquer) les informations de la BDD qu'on lui a fournie.

Qui plus est, si chaque machine dotée d'IA devait être sous le contrôle décisionnaire d'un opérateur humain, ça ne présenterait au final strictement aucun "progrès" par rapport aux drones déjà existants. 

Lien à poster
Partager sur d’autres sites

Membre, Animal sauvage, Posté(e)
Mr_Fox Membre 18 189 messages
Animal sauvage,
Posté(e)

Sauf qu'un terrain de conflit n'est pas un environnement sous contrôle et qu'on ne peut pas garantir que le drone sera déconnectable ni qu'il va obéir à nos ordres.

Lien à poster
Partager sur d’autres sites

Membre, 54ans Posté(e)
Foraveur Membre 6 426 messages
Baby Forumeur‚ 54ans‚
Posté(e)

Roger vos infos sont erronées.....ou vos sources trop "grand public"......

" D'après l'ex-recruteur Jimmy Massey ".......allons Roger......un peu de sérieux.....je pensais vos références plus crédibles....

" En 2007 en Irak on pouvait capter les images d'un drone de l'armée américaine avec une carte TV et un logiciel à 25$ sur amazon. Et le GPS est bien plus ancien que ça, la sécurité est vraiment au top de chez top, t'es sur ? Un état étranger ne pourrait pas avoir ajouté un satellite qui clone le signal GPS pour leurrer des véhicules au sol induisant ainsi un mauvais guidage ? "...........c'est des c******** complotistes...enfin!!!!!!

" comporteront de fausses informations parce que l'appareil aura capté une fausse information qu'il aura authentiquement transcrite. Après par exemple si je suis une cible et que je roule dans uns voiture identique à celle de l'ambassadeur des états unis, que le drone capte mon téléphone à une coordonnée authentique et que j'ai falsifié le signal GPS reçu par le drone qui croit s'y trouver, il croit m'avoir en visuel et son missile tue l'ambassadeur. Et pourtant les logs sont authentiques. "...non ca ne fonctionne pas comme ca......

"" N'importe qui peut se faire buter si on rend l'arme autonome." .....non une fois programmée une arme autonome n'a plus besoin de comms externes.....

 

Lien à poster
Partager sur d’autres sites

Membre, 50ans Posté(e)
Crabe_fantome Membre 45 407 messages
Maitre des forums‚ 50ans‚
Posté(e)
il y a 8 minutes, frunobulax a dit :

Je ne partage effectivement pas votre point de vue ...

Le principe de l'IA n'est pas de "copier" une intelligenece (humaine, canine ou ce que vous voulez) mais de simuler des processus cognitifs permettant la prise de décisions face à des situation non préalablement programmées.

L'objectif est donc que des machines dotées d'IA puissent prendre des décisions de façon autonome face à des situations +ou- complexes impossibles à prévoir/programmer à l'avance.
C'est justement ce qui différencie l'IA d'un super-calculateur qui ne fait que consulter la BDD qu'on lui a fournie.

D'autre part, si chaque machine dotée d'IA devait être sous le contrôle décisionnaire d'un opérateur humain, ça ne présenterait au final strictement aucun "progrès" par rapport aux drones déjà existants. 

Pour l'IA civil je suis d'accord, il n'y a pas de compétition possible entre mon ordinateur et moi: il calcule et analyse plus vite que moi. Nous sommes donc, lui et moi, complémentaire. Je ne sais pas pour l'IA militaire, est ce qu'ils veulent au final un robot autonome ou équiper les soldats d'une IA pour les aider à remplir leur mission? Aucune idée, je dirais les deux. 

 

Reste qu'une IA autonome sur le terrain avec un programme précis (maintenir une "pax romana" par exemple) me semble un très bon progrès. Pas de viol, pas d'humiliation, pas de torture et un nombre de tués limités; si toi comme moi nous sommes pour réduire le nombre de victimes alors nous devrions nous réjouir de l'arrivée de l'IA dans l'armée. Y compris si nous en sommes les victimes.  

Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
frunobulax Membre 15 684 messages
Maitre des forums‚
Posté(e)
il y a 29 minutes, Crabe_fantome a dit :

Pour l'IA civil je suis d'accord, il n'y a pas de compétition possible entre mon ordinateur et moi: il calcule et analyse plus vite que moi. Nous sommes donc, lui et moi, complémentaire. Je ne sais pas pour l'IA militaire, est ce qu'ils veulent au final un robot autonome ou équiper les soldats d'une IA pour les aider à remplir leur mission? Aucune idée, je dirais les deux. 

Il n'y a pas de différences entre l'IA "civile" ou "militaire".
Sinon l'armée US ne ferait pas appel à ... Google !
:cool:

il y a 29 minutes, Crabe_fantome a dit :

Reste qu'une IA autonome sur le terrain avec un programme précis (maintenir une "pax romana" par exemple) me semble un très bon progrès. Pas de viol, pas d'humiliation, pas de torture et un nombre de tués limités; si toi comme moi nous sommes pour réduire le nombre de victimes alors nous devrions nous réjouir de l'arrivée de l'IA dans l'armée. Y compris si nous en sommes les victimes.  

Ne rêvez pas, l'IA ne réduira EN RIEN les exactions commises par des hommes sur le terrain, qu'aucune technologie "futuriste" ne pourra remplacer.

Le champ d'action de l'IA se limitera (du moins dans un avenir proche) aux drones actuellement contrôlés par des opérateurs.

Ca sera donc une IA et non un opérateur "humain" qui décidera s'il faut abattre ou non une personne suspectée d'être éventuellement "dangereuse" ou à quel point des "dommages collatéraux" sont "acceptables" ou non.

On en revient donc à considérer que le droit de vie ou de mort ne serait qu'une affaire de statistiques et de probabilités ..?

Quand on constate les problèmes éthiques extrêmement complexes qui commencent à être soulevés par quelque chose d'aussi évidemment "inoffensif" qu'une voiture autonome pilotée par une IA, il est un peu étonnant que l'on ne s'interroge pas plus que ça sur une IA dotée de la capacité de tuer ..?

Ceci dit, dans la mesure où ces drones "tueurs" dotés d'IA ne seront (à priori !?) bien évidemment JAMAIS en activité dans les pays qui les fabriquent, on comprend peut être un peu mieux pourquoi nous nous préoccupons BEAUCOUP plus des dangers de la voiture autonome que de ceux de drones autonomes armés comme des porte-avions ?
:cool:

Lien à poster
Partager sur d’autres sites

Membre, 54ans Posté(e)
Foraveur Membre 6 426 messages
Baby Forumeur‚ 54ans‚
Posté(e)

" On en revient donc à considérer que le droit de vie ou de mort ne serait qu'une affaire de statistiques et de probabilités ..? ".....d'un point de vue militaire ..oui.....les cours d'éthique de combat (et j'en donne) ne sont la que pour donner aux cadres l'illusion d'avoir une conscience socialement acceptable.....(mais je ne reconnaitrai jamais l'avoir dit...)

Lien à poster
Partager sur d’autres sites

Membre, Chien Fou forumeur, 90ans Posté(e)
Promethee_Hades Membre 25 564 messages
90ans‚ Chien Fou forumeur,
Posté(e)
Il y a 22 heures, Roger_Lococo a dit :

Le projet Maven provoque une vague de départs volontaires et de protestation de la part des employés de Google. Ce projet consiste en un développement d'intelligence artificielle en partenariat avec le Pentagone avec pour but de pallier les faiblesses des humains dans l'extermination de leurs congénères. Autrement dit le Syndrome de Stress Post Traumatique ou PTSD qui touche notamment les pilotes des drones tueurs commandés opérés par l'USAF et commandés par la CIA qui ordonne des crimes de guerre la plupart du temps.

L'existence de ce projet permettrait alors au à l'IA d'identifier la cible et de déclencher le feu sans intervention humaine ce qui n'est pas sans causer d'insomnies aux spécialistes de l'IA impliqués dans le projet. 

http://www.dedefensa.org/article/les-noces-google-pentagone

http://www.wsws.org/en/articles/2018/04/05/goog-a05.html

 

L'avènement de skynet vous préoccupe-t-il ou ce projet est-il compatible avec vos conceptions de l'éthique ?

Bonjour Roger Lococo, poigne de mains

Le projet ne me préoccupe pas tant outre mesure, je le considère comme débile, complétement débile.

Il y avait un principe en IA, c'est de donner un interdit à la machine, ne jamais se retourner contre un humains, pour lui porter atteinte. Dans ce cas de décision du pentagone, l'interdit saute. Super sympas, ce qui fait qu'à plus ou moins brève échéance c'est le règne de la machine au détriments de la vie en général. La machine va obéir au donneur d'ordre qui qu'il soit, ce peut être un autre machine d'ailleurs.

Mais imaginons que ce soit pour cibler un adversaire, suffit de bons pirates informatique, afin de rentrer sans le système , et de donner l'ordre non pas d'éliminer les adversaire, mais d'éliminer la population américaine ou européenne, ou va savoir quoi, mais surtout pas l'ennemi de départ. Imaginons ce système entre les mains de dictateurs, ça y est il y aura plus de contestation, tout opposant va être éliminés. Adieu à toute démocratie, il y a pas à dire ce système est fabuleux. Après bien on peut éliminer avec ces principes tout opposant à n'importe quoi, système religieux, économique, politique, et imposer à des humains à abandonner tout choix personnel et se conformer au dogmes du moments dicté par des allumés de tout poil.

Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
frunobulax Membre 15 684 messages
Maitre des forums‚
Posté(e)
il y a 24 minutes, Foraveur a dit :

" On en revient donc à considérer que le droit de vie ou de mort ne serait qu'une affaire de statistiques et de probabilités ..? ".....d'un point de vue militaire ..oui.....les cours d'éthique de combat (et j'en donne) ne sont la que pour donner aux cadres l'illusion d'avoir une conscience socialement acceptable.....(mais je ne reconnaitrai jamais l'avoir dit...)

Ce qui est assez consternant chez les militaires, c'est cette obstination à persévérer dans l'erreur ...

Alors que toutes les démocraties occidentales ont clairement compris qu'il vaut mieux innocenter 10 coupables que condamner 1 innocent, les militaires en sont encore à penser qu'il vaut mieux condamner 10 innocents qu'innocenter 1 coupable.

On pourrait logiquement penser qu'ils auraient peut être un peu retenu la leçon après s'être mis à dos à peu près TOUTES les populations des pays dans les quels ils sont intervenus (Indochine, Vietnam, Algérie, Irak, Lybie, Mali, Syrie, etc, etc !) mais ... non !
:smile2:

Lien à poster
Partager sur d’autres sites

Annonces
Maintenant

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.


×