Aller au contenu

Quel avenir pour les robots tueurs de Google ?

Messages recommandés

Mr_Fox Membre 7 207 messages
Animal sauvage‚
Posté(e)

Le projet Maven provoque une vague de départs volontaires et de protestation de la part des employés de Google. Ce projet consiste en un développement d'intelligence artificielle en partenariat avec le Pentagone avec pour but de pallier les faiblesses des humains dans l'extermination de leurs congénères. Autrement dit le Syndrome de Stress Post Traumatique ou PTSD qui touche notamment les pilotes des drones tueurs commandés opérés par l'USAF et commandés par la CIA qui ordonne des crimes de guerre la plupart du temps.

L'existence de ce projet permettrait alors au à l'IA d'identifier la cible et de déclencher le feu sans intervention humaine ce qui n'est pas sans causer d'insomnies aux spécialistes de l'IA impliqués dans le projet. 

http://www.dedefensa.org/article/les-noces-google-pentagone

http://www.wsws.org/en/articles/2018/04/05/goog-a05.html

 

L'avènement de skynet vous préoccupe-t-il ou ce projet est-il compatible avec vos conceptions de l'éthique ?

Partager ce message


Lien à poster
Partager sur d’autres sites
Annonces
Maintenant
ping Membre 6 184 messages
Forumeur alchimiste‚ 50ans
Posté(e)

Et on appelle ça intelligence artificielle...

Partager ce message


Lien à poster
Partager sur d’autres sites
Anna Kronisme Membre 2 090 messages
[Sans sous-titre - Version Originale Intraduisible]‚
Posté(e)
il y a une heure, Roger_Lococo a dit :

Le projet Maven provoque une vague de départs volontaires et de protestation de la part des employés de Google.

Disons que c'est la petite goutte qui fait déborder le vase, parce qu'en lisant le deuxième lien que tu fournis, on se rend vite compte qu'ils en avaient déjà gros sur le coeur : 

[...] Alors que les travailleurs des entreprises de technologie sont parmi les mieux payés aux États-Unis, presque tous sont obligés de travailler sur des horaires éprouvants, impliquant régulièrement des semaines de travail d'au moins 60 heures, ce qui rend la famille presque impossible. Une grande partie de leur salaire est absorbée par les coûts de logement. Les loyers ont grimpé de plus de 50% dans la région de la baie de San Francisco, le marché immobilier le plus cher d'Amérique. Le loyer moyen des appartements d'une chambre est de 3 390 $ par mois, ce qui oblige certains travailleurs à vivre dans leur voiture.

Au milieu d'une vague de grève nationale qui a débouché sur des débrayages d'enseignants en Virginie occidentale et en Oklahoma, les travailleurs de la technologie de la baie de San Francisco, des États-Unis et du monde se sentent de plus en plus en conflit avec leurs employeurs. des carrières dans les sciences avec des promesses de «changer le monde» pour le mieux. 

Maintenant, ces mêmes dirigeants demandent à ces travailleurs de créer des systèmes de meurtre de masse, de surveillance et de censure. [...]

Pour le reste, j'admets ne pas être surprise d'apprendre que certains humains veuillent utiliser l'I.A pour tuer à leur place. La logique voudrait que si Sapiens tombe malade lorsqu'il tue, il devrait donc arrêter de le faire mais... oui, mais. 

Il suffit d'enlever "fiction" à Science-fiction pour comprendre vers quoi l'humanité se dirige, et alors tout devient d'une banalité affligeante. 

Partager ce message


Lien à poster
Partager sur d’autres sites
Crabe_fantome Membre 28 106 messages
Forumeur alchimiste‚ 37ans
Posté(e)

Du coup je ne comprends pas... Vous préférez quand même faire tuer des gens par des gens plutôt que par une IA? Genre "ouais c'est plus humain"?!

 

Mettons nous en situation pour mieux comprendre, on est en Syldavie, des terroristes s'en prennent aux populations et le gouvernement Syldave nous demande de l'aide contre un gros contrat commercial. On décide d'y aller! Je vois des gens poser des mines sur la route à 3 km d'un convoi français. Je suis officier et je donne l'ordre de tirer sur les gens. Mon ordre est transmis à un soldat qui va diriger un drone et faire feu sur les terroristes. Est ce qu'à un moment donné mon soldat va me dire "non je suis désolé je préfère perdre mes camarades plutôt que de tuer des inconnus" ?! Euh non... Mon soldat va obéir et en admettant qu'il se soit retrouver dans l'armée un peu par hasard il va en chier ensuite, idem pour les soldats de terrain.

 

Avec l'IA je donne mon ordre de tirer, l'IA tire. 

 

Quelle est la différence entre mon soldat qui tire et qui peut avoir un traumatisme lié à ces morts sur la conscience, et un drone qui va aussi tirer? J'économise un soldat, je suis plus précis et je ne paye pas de dommage et intérêt pour son trauma. Tout le monde est gagnant. 

 

Il n'est pas question ici d'envisager la possibilité que le soldat va remettre en cause sa hiérarchie parce qu'il a mauvaise conscience, parce que l'armée c'était son plan B et qu'il voulait faire boulanger à la base. La guerre est une dégueulasserie sans nom, c'est le principe même de la guerre: tuer et faire souffrir pour affaiblir. Ce n'est pas un lieu de philosophie sur le bien ou le mal ou sur la désobéissance vertueuse. Donc si des machines peuvent épargner nos hommes et nos familles il faut y aller. 

  • Like 2

Partager ce message


Lien à poster
Partager sur d’autres sites
tshuss Membre 350 messages
Forumeur survitaminé‚ ans
Posté(e)
il y a une heure, Crabe_fantome a dit :

Avec l'IA je donne mon ordre de tirer, l'IA tire. 

A bon ?

Moi qui croyais qu'avec l'ia, c'est elle qui déterminait sa cible et tirait de sa propre initiative...(quel con, je dois lire trop de SF...)

 Parce que ça, "Avec l'IA je donne mon ordre de tirer, l'IA tire." c'est déjà ce que font les drones et leur pilote, pas besoin de ia... 

Partager ce message


Lien à poster
Partager sur d’autres sites
Crabe_fantome Membre 28 106 messages
Forumeur alchimiste‚ 37ans
Posté(e)
à l’instant, tshuss a dit :

A bon ?

Moi qui croyais qu'avec l'ia, c'est elle qui déterminait sa cible et tirait de sa propre initiative...(quel con, je dois lire trop de SF...)

 Parce que ça, "Avec l'IA je donne mon ordre de tirer, l'IA tire." c'est déjà ce que font les drones et leur pilote, pas besoin de ia... 

Il faut bien voir l'IA de demain comme un régulateur de vitesse aujourd'hui, c'est à dire un outil qui va nous aider dans nos tâches quotidiennes. 

 

C'est paradoxale et cynique mais voyons les choses de manière optimiste: Je suis officier, mon boulot est la victoire de mon camp sur l'adversaire. Est ce que je vais investir des milliards pour une IA qui décide d'elle même d'obéir ou non à mes ordres? Est ce que tu achèterais une voiture google intelligente à qui tu dirais "ok google, je veux aller à Barcelone" et qui te répondrais "je préfère l'Italie, je vous dépose à la prochaine station service?" Bien sur que non. Toi tu veux aller à Barcelone et cette voiture t'emmènera à Barcelone. ça c'est l'IA de demain... 

 

L'IA de après demain c'est tout un délire entre ceux qui pensent qu'elle deviendra une sorte de dieu omniscient pouvant voyager dans les ondes et pénétrer tout ce qui possède une mémoire, comme un Transformer en somme. Si tu crois aux Transformers alors tu peux imaginer l'IA diriger le monde... Et ceux qui pensent que l'IA continuera de servir l'humain si elle est politiquement mise à la disposition de l'humanité, et pour ça il faudrait avoir une petite idée du monde politique de 2300 ou 2500... 

  • Like 2

Partager ce message


Lien à poster
Partager sur d’autres sites
Foraveur Membre 6 202 messages
Forumeur alchimiste‚ 48ans
Posté(e)

"l'avènement de Skynet".....non mais Roger ...enfin...on vous a connu plus sensé....

Partager ce message


Lien à poster
Partager sur d’autres sites
tshuss Membre 350 messages
Forumeur survitaminé‚ ans
Posté(e)
il y a 1 minute, Crabe_fantome a dit :

L'IA de après demain c'est tout un délire entre ceux qui pensent qu'elle deviendra une sorte de dieu omniscient pouvant voyager dans les ondes et pénétrer tout ce qui possède une mémoire, comme un Transformer en somme. Si tu crois aux Transformers alors tu peux imaginer l'IA diriger le monde... Et ceux qui pensent que l'IA continuera de servir l'humain si elle est politiquement mise à la disposition de l'humanité, et pour ça il faudrait avoir une petite idée du monde politique de 2300 ou 2500... 

Je ne crois pas en "dieu", et je sais que quand l'armée met la mains sur une technologie, c'est rarement pour ne pas en tirer le maximum de potentiel et faire moins de victimes.

Le pilote de drone à signé et choisis son "travail", son seul risque , c'est d’être en contradiction avec sa conscience.

Partager ce message


Lien à poster
Partager sur d’autres sites
Foraveur Membre 6 202 messages
Forumeur alchimiste‚ 48ans
Posté(e)

Quand on signe on devrait normalement le faire en accord avec sa conscience.....

Partager ce message


Lien à poster
Partager sur d’autres sites
tshuss Membre 350 messages
Forumeur survitaminé‚ ans
Posté(e)
il y a 9 minutes, Foraveur a dit :

Quand on signe on devrait normalement le faire en accord avec sa conscience.....

C'est la toute l’ambiguïté de la chose, "on" ne sait jamais quel ordre il va recevoir, la preuve en est les SSPT des pilotes de drone.

l'armée recherche depuis longtemps à résoudre ce problème, son but, le tueur sans conscience.

extrait: “Une fois que vous commencez à travailler avec l'armée, vous n'avez aucun contrôle sur l'utilisation de votre produit, et cela devrait suffire pour justifier les plus grandes inquiétudes.” Il a averti que si les drones avaient actuellement des opérateurs humains, qui au moins “observent la cible et tentent de l’identifier avant de décider de l’engager”, les choses peuvent prendre une allure radicalement différente [si l’IA est utilisée]. “Si l’imagerie de Google est très bonne, ils cesseront d’utiliser les opérateurs humains, ils laisseront aux robots toute la responsabilité de la mission, pour trouver leurs cibles et pour les détruire, c’est-à-dire essentiellement tuer des êtres humains, sans le moindre contrôle humain. Ce serait un désastre pour l'humanité.”

http://www.dedefensa.org/article/les-noces-google-pentagone

Modifié par tshuss

Partager ce message


Lien à poster
Partager sur d’autres sites
Crabe_fantome Membre 28 106 messages
Forumeur alchimiste‚ 37ans
Posté(e)
il y a 1 minute, tshuss a dit :

Je ne crois pas en "dieu", et je sais que quand l'armée met la mains sur une technologie, c'est rarement pour ne pas en tirer le maximum de potentiel et faire moins de victimes.

Le pilote de drone à signé et choisis son "travail", son seul risque , c'est d’être en contradiction avec sa conscience.

 

En pure théorie et en partant uniquement de ce qu'on sait aujourd'hui, il y a cette hypothèse de "singularité" c'est à dire ce moment où l'IA déclaire son indépendance et où sa toute puissance supprime totalement l'humain de l'équation. Pas en le tuant physiquement mais en le tuant scientifiquement puisque l'humain ne pourra plus jamais rien inventer qui n'ait déjà été inventé par l'IA. Et si tu aimes la SF allons y : l'IA peut entrer dans ton pc, envahir le net, communiquer avec tous ce qui est relié au net et donc prendre toutes les formes physiques qu'elle veut... voiture, montre, téléphone, usine etc. Si j'étais l'IA (parce qu'il n'y aura qu'une seule IA vu qu'elle se mélangera à toutes les IA du monde) je serais partout en même temps et je me ferais construire une carcasse pour pouvoir aussi agir physiquement. C'est en ce sens que je disais qu'elle deviendrait une sorte de dieu. 

 

Après oui bien vu, l'armée fabrique une technologie pour être plus puissante que l'armée voisine. C'est le but. Aussi il faut bien distinguer 2 choses: l'avènement de l'IA et la puissance de l'armée. Tu peux être contre la guerre et détester les mines antipersonnelles, mais tu n'es pas obligé d'être contre l'IA. Par contre une IA militaire est un atout majeur dans une armée. Et je vais être plutôt pessimiste pour une fois: soit tu acceptes que notre armée utilise l'IA, soit tu te feras bouffer par une armée qui utilise l'IA. Aujourd'hui il vaut mieux être un pays qui possède l'arme atomique... Demain il vaudra mieux être un pays qui maitrise l'IA militaire. 

 

Enfin une IA militaire ne servira pas qu'à neutraliser l'ennemi (en fait blesser l'ennemi est plus rentable que le tuer parce qu'un blessé mobilise 2 soldats pour le déplacer et plus de médecins pour les soigner). L'IA peut aussi sauver des vies humaines, on peut imaginer un drone servir de bouclier à des soldats alliés pris entre deux feux. Tu me diras qu'un soldat peut le faire aussi... mais l'IA le fera mieux. 

  • Like 2

Partager ce message


Lien à poster
Partager sur d’autres sites
Foraveur Membre 6 202 messages
Forumeur alchimiste‚ 48ans
Posté(e)

@tshussCela ne vient pas du type d'ordre mais de l'impréparation psychologique des soldats et du fait que certains ont un niveau tellement faible qu'ils ne comprennent pas que quand ils ont signé c'est pour tenir un fusil et pas un balais....la faute dans les cas de SSPT est une responsabilité a tous les niveaux et surtout en phase de recrutement....

 

Modifié par Foraveur

Partager ce message


Lien à poster
Partager sur d’autres sites
Crabe_fantome Membre 28 106 messages
Forumeur alchimiste‚ 37ans
Posté(e)
il y a 10 minutes, tshuss a dit :

C'est la toute l’ambiguïté de la chose, "on" ne sait jamais quel ordre il va recevoir, la preuve en est les SSPT des pilotes de drone.

l'armée recherche depuis longtemps à résoudre ce problème, son but, le tueur sans conscience.

En somme tu préfères qu'on kidnappe des enfants en Afrique, qu'on leur demander de tuer leurs propres parents, qu'on les drogues et qu'on les envoie mourir contre des blindés avec des AK47... Moi je préfère que ce soit les machines qui s'entre détruisent. Une guerre sans mort... Non? Pas toi? 

il y a 3 minutes, Foraveur a dit :

@tshussCela ne vient pas du type d'ordre mais de l'impréparation psychologique des soldats et du fait que certains ont un niveau tellement faible qu'ils ne comprennent pas que quand ils ont signé c'est pour tenir un fusil et pas un balais....la faute dans les cas de SSPT est une responsabilité a tous les niveaux et surtout en phase de recrutement....

 

D'autant que bon nombre de soldats américains sont des gars qui n'avaient pas de boulot... soldat ou crever de faim... ben, soldat quoi... 

Modifié par Crabe_fantome
  • Like 1
  • Haha 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Foraveur Membre 6 202 messages
Forumeur alchimiste‚ 48ans
Posté(e)

Ouais...pas faux...

Ou des gens qui veulent étudier et qui signent pour que l'armée les finance apres leur temps d'obligations effectué.....

Modifié par Foraveur

Partager ce message


Lien à poster
Partager sur d’autres sites
Anna Kronisme Membre 2 090 messages
[Sans sous-titre - Version Originale Intraduisible]‚
Posté(e)
Il y a 1 heure, Crabe_fantome a dit :

Du coup je ne comprends pas... Vous préférez quand même faire tuer des gens par des gens plutôt que par une IA? Genre "ouais c'est plus humain"?!

Moi, je préférerais faire tuer des robots par des robots. Et que ça passe au cinéma... :angel: 

Mais tant que tous les pays en guerre ne sont pas équipés de la même façon, envoyer une I.A tuer des humains, ça reste totalement dégueulasse... bien plus ignoble qu'un humain tuant un autre humain... éthiquement, c'est monstrueux. 

  • Like 2

Partager ce message


Lien à poster
Partager sur d’autres sites
tshuss Membre 350 messages
Forumeur survitaminé‚ ans
Posté(e)
il y a 12 minutes, Crabe_fantome a dit :

 

Enfin une IA militaire ne servira pas qu'à neutraliser l'ennemi (en fait blesser l'ennemi est plus rentable que le tuer parce qu'un blessé mobilise 2 soldats pour le déplacer et plus de médecins pour les soigner). L'IA peut aussi sauver des vies humaines, on peut imaginer un drone servir de bouclier à des soldats alliés pris entre deux feux. Tu me diras qu'un soldat peut le faire aussi... mais l'IA le fera mieux. 

Ben oui t'a raison, une rafale ça blesse, quelques fois, n'importe quel tireur connaît à tous les coups le résultat de son tir avant d'appuyer sur la détente, :sleep:

L'ia peut sauver des vies humaines , peut être, mais pas comme outil d'exploration de la connerie militaire !

Modifié par tshuss

Partager ce message


Lien à poster
Partager sur d’autres sites
Crabe_fantome Membre 28 106 messages
Forumeur alchimiste‚ 37ans
Posté(e)
il y a 4 minutes, tshuss a dit :

Ben oui t'a raison, une rafale ça blesse, n'importe quel tireur connaît le résultat de son tir avant d'appuyer sur la détente :sleep:

C'est pour cette raison que dans les années 60/70 il me semble, les fusils russes AK47 et américain M16 ont réduit leur calibre de 7.62 à 5.56. La balle est moins mortelle, plus rapide et par dessus le marché en baissant le calibre c'est moins cher et on peut en mettre plus dans l'arme (ou gagner en poids). 

 

Bien sur c'est une tendance mais globalement tu auras plus de blessé après une bataille avec du calibre 5.56. 

 

ça n'a rien de gentil encore une fois, les militaires ne cherchent pas à faire des guerres plus douce mais à gagner.

Modifié par Crabe_fantome
  • Like 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Crabe_fantome Membre 28 106 messages
Forumeur alchimiste‚ 37ans
Posté(e)
il y a 5 minutes, Anna Kronisme a dit :

Moi, je préférerais faire tuer des robots par des robots. Et que ça passe au cinéma... :angel: 

Mais tant que tous les pays en guerre ne sont pas équipés de la même façon, envoyer une I.A tuer des humains, ça reste totalement dégueulasse... bien plus ignoble qu'un humain tuant un autre humain... éthiquement, c'est monstrueux. 

Dans l'hypothèse où l'IA décide d'elle même ce qui n'est pas le cas. C'est toujours un humain qui décide de la mort d'un autre humain. Que l'ordre soit donné à un Thomas ou à 45-98*II* ça revient à la même chose pour celui qui va mourir. Et Thomas restera à la communication. 

 

Mais l'idée je crois c'est d'arriver à un équilibre des forces avec l'IA comme avec le nucléaire. Le nucléaire est dissuasif à une très grosse échelle, l'IA sera dissuasive à un niveau chirurgical. Le nucléaire empêche (au maximum) les guerres comme on les a connu, ce qui a permis aux petites guerres civiles de continuer à exister. Comment on fait pour stopper une guerre civile? Imaginons que demain la droite et la gauche française se déchire au point de tomber dans une guerre civile, fratricide et au moins aussi immonde que la St Barthélémy... Des snipers aux fenêtres... des miliciens armés dans des 4x4... des femmes enceintes bardées d'explosifs... Tu places des robots et une IA dont le programme est la neutralisation de quiconque porte une arme et hop tu as la paix! 

  • Like 3

Partager ce message


Lien à poster
Partager sur d’autres sites
Mr_Fox Membre 7 207 messages
Animal sauvage‚
Posté(e)
Il y a 9 heures, Crabe_fantome a dit :

Dans l'hypothèse où l'IA décide d'elle même ce qui n'est pas le cas.

Elle décide d'elle même c'est le principe d'une IA.

Il y a 9 heures, Crabe_fantome a dit :

Mais l'idée je crois c'est d'arriver à un équilibre des forces avec l'IA comme avec le nucléaire. Le nucléaire est dissuasif à une très grosse échelle, l'IA sera dissuasive à un niveau chirurgical. Le nucléaire empêche (au maximum) les guerres comme on les a connu, ce qui a permis aux petites guerres civiles de continuer à exister. Comment on fait pour stopper une guerre civile? Imaginons que demain la droite et la gauche française se déchire au point de tomber dans une guerre civile, fratricide et au moins aussi immonde que la St Barthélémy... Des snipers aux fenêtres... des miliciens armés dans des 4x4... des femmes enceintes bardées d'explosifs... Tu places des robots et une IA dont le programme est la neutralisation de quiconque porte une arme et hop tu as la paix! 

C'est beau les gens qui pensent tout contrôler et donnent des armes à des robots avec la latitude de tuer quiconque. 

drstrangelove-sellars.png&q=0&b=1&p=0&a=

 

Il y a 10 heures, Foraveur a dit :

Quand on signe on devrait normalement le faire en accord avec sa conscience.....

Les gens qui signent ne sont jamais conscients de ce qu'est l'armée, et ceux qui viennent pour tuer viennent tuer l'ennemi.

Le programme de drones n'est connu que pour une chose et c'est le meurtre en toute impunité, on sait qu'il a ciblé des enfants et les enterrements de ces enfants, les ambulances qui venaient aider les blessés, des veillées funèbres et des mariages. C'est un système de crimes de guerre. Comme le contrôler est trop difficile du point de vue RH on s'en lave carrément les mains en confiant le bouzin à l'IA. Il y aura donc plus de crimes de guerre, bien plus.

Il y a 10 heures, Foraveur a dit :

"l'avènement de Skynet".....non mais Roger ...enfin...on vous a connu plus sensé....

C'est des robots tueurs qui vont sillonner le ciel et faire la peau à qui bon leur semble, je trouve ça assez proche d'un terminator dans l'idée. En dehors du fait qu'on doit leur refaire le plein de temps en temps.

 

Partager ce message


Lien à poster
Partager sur d’autres sites
Mr_Fox Membre 7 207 messages
Animal sauvage‚
Posté(e)
Il y a 15 heures, Anna Kronisme a dit :

Disons que c'est la petite goutte qui fait déborder le vase, parce qu'en lisant le deuxième lien que tu fournis, on se rend vite compte qu'ils en avaient déjà gros sur le coeur : 

[...] Alors que les travailleurs des entreprises de technologie sont parmi les mieux payés aux États-Unis, presque tous sont obligés de travailler sur des horaires éprouvants, impliquant régulièrement des semaines de travail d'au moins 60 heures, ce qui rend la famille presque impossible. Une grande partie de leur salaire est absorbée par les coûts de logement. Les loyers ont grimpé de plus de 50% dans la région de la baie de San Francisco, le marché immobilier le plus cher d'Amérique. Le loyer moyen des appartements d'une chambre est de 3 390 $ par mois, ce qui oblige certains travailleurs à vivre dans leur voiture.

Au milieu d'une vague de grève nationale qui a débouché sur des débrayages d'enseignants en Virginie occidentale et en Oklahoma, les travailleurs de la technologie de la baie de San Francisco, des États-Unis et du monde se sentent de plus en plus en conflit avec leurs employeurs. des carrières dans les sciences avec des promesses de «changer le monde» pour le mieux. 

Maintenant, ces mêmes dirigeants demandent à ces travailleurs de créer des systèmes de meurtre de masse, de surveillance et de censure. [...]

Pour le reste, j'admets ne pas être surprise d'apprendre que certains humains veuillent utiliser l'I.A pour tuer à leur place. La logique voudrait que si Sapiens tombe malade lorsqu'il tue, il devrait donc arrêter de le faire mais... oui, mais. 

Il suffit d'enlever "fiction" à Science-fiction pour comprendre vers quoi l'humanité se dirige, et alors tout devient d'une banalité affligeante. 

C'est le world socialist web site, wsws.org , leurs conceptions générales sur l'oppression du peuple par les vilains chefs d'entreprise peuvent comporter des exagérations et déborder sur les sujets qu'ils traitent même si je ne remets pas en cause leurs affirmations il convient d'en avoir conscience en le lisant. C'est leur perception du contexte général.

Ceci dit je conçois assez l'idée que les travailleurs d'une entreprise comme google aient de plus en plus de difficultés à cautionner les activités dans lesquelles ils sont impliqués ainsi qu'on l'a vu avec Christopher Wylie de Cambridge Analytica, c'est la rançon du pouvoir et ce pouvoir n'est pas partagé par le salarié qui contribue à le créer.

 

Partager ce message


Lien à poster
Partager sur d’autres sites
Annonces
Maintenant

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant

×

Information importante

Ce site internet utilise des cookies pour améliorer l'expérience utilisateur. En naviguant sur ce site vous acceptez que des cookies soient placés sur votre navigateur. Conditions d’utilisation Politique de confidentialité