Aller au contenu

avez vous peur de l'intelligence artificielle ?

Noter ce sujet


spirale

Messages recommandés

Membre, 66ans Posté(e)
VladB Membre 13 881 messages
Maitre des forums‚ 66ans‚
Posté(e)
il y a 1 minute, DroitDeRéponse a dit :

L’IA sert déjà dans les coms : brouillage , reconnaissance , compression , ….

Sans doute, mais je ne suis plus expert réseau depuis très longtemps et je ne sais pas de quelle nature sont les IA qui interviennent la dedans.

Tu as peut être lu le fil de discussion et je défendais l'idée qu'il était plus clair d'appeler IA ce qui en est au sens stricte (à savoir et pour faire court 1) moteurs d'inférence à base de règles, 2) algos génétique pour le calcul intensif d'optimisation, 3) réseaux neuronaux). Ces dernier ayant tellement de variantes et de déclinaisons qu'il contribuent à la majeure partie de l'IA. Ce que je préfèrerais ne pas appeler IA mais à la rigueur algorithmique avancée, ces sont les analyses de données (calculs matriciels sur des données X individus et P variables), les régressions multiples, linéaires ou non, les ajustement paramétriques de modèles par minimisation de l'erreur de prédiction (en faisant gaffe à la sur optimisation), etc.

Dans ce cadre rapidement brossé, je ne vois pas du meilleur œil les journalistes qui appellent tout et n'importe quoi de l'IA. Par exemple un programme d'échec c'est un bon alpha béta (minimax optimisé), assortie d'une bibliothèque de début et d'une fin de partie spéciale évitant l'effet horizon. Ce n'est toujours pas de l'IA. Quoi qu'il se peut très bien que l'on ait de l'IA en plus de nos jour.

Pour la reconnaissance, c'est clair qu'il y a du NN là dedans.

Pour la compression je pense à zip ou des trucs de ce genre, mais ce n'est pas de l'IA. Un piège dans ces questions, c'est que de l'algorithmique classique peut sans doute s'améliorer, se tuner, à l'aide de méthodes d'IA. Et une fois le produit fini et sans IA, je trouve abusif de dire qu'on voit là une IA à l'œuvre.

Lien à poster
Partager sur d’autres sites

Annonces
Maintenant
Membre, Un con qui marche ira plus loin qu'un intellectuel assis, 52ans Posté(e)
DroitDeRéponse Membre 86 913 messages
52ans‚ Un con qui marche ira plus loin qu'un intellectuel assis,
Posté(e)
il y a 32 minutes, VladB a dit :

Sans doute, mais je ne suis plus expert réseau depuis très longtemps et je ne sais pas de quelle nature sont les IA qui interviennent la dedans.

Tu as peut être lu le fil de discussion et je défendais l'idée qu'il était plus clair d'appeler IA ce qui en est au sens stricte (à savoir et pour faire court 1) moteurs d'inférence à base de règles, 2) algos génétique pour le calcul intensif d'optimisation, 3) réseaux neuronaux). Ces dernier ayant tellement de variantes et de déclinaisons qu'il contribuent à la majeure partie de l'IA. Ce que je préfèrerais ne pas appeler IA mais à la rigueur algorithmique avancée, ces sont les analyses de données (calculs matriciels sur des données X individus et P variables), les régressions multiples, linéaires ou non, les ajustement paramétriques de modèles par minimisation de l'erreur de prédiction (en faisant gaffe à la sur optimisation), etc.

Dans ce cadre rapidement brossé, je ne vois pas du meilleur œil les journalistes qui appellent tout et n'importe quoi de l'IA. Par exemple un programme d'échec c'est un bon alpha béta (minimax optimisé), assortie d'une bibliothèque de début et d'une fin de partie spéciale évitant l'effet horizon. Ce n'est toujours pas de l'IA. Quoi qu'il se peut très bien que l'on ait de l'IA en plus de nos jour.

Pour la reconnaissance, c'est clair qu'il y a du NN là dedans.

Pour la compression je pense à zip ou des trucs de ce genre, mais ce n'est pas de l'IA. Un piège dans ces questions, c'est que de l'algorithmique classique peut sans doute s'améliorer, se tuner, à l'aide de méthodes d'IA. Et une fois le produit fini et sans IA, je trouve abusif de dire qu'on voit là une IA à l'œuvre.

Pour la compression tu peux utiliser de l’IA notamment pour trouver un dictionnaire ou quand tu te casses les dents avec les kernels de Volterra. Bon c’est pas l’endroit mais en cherchant un peu si ça t’intéresse tu trouveras pas mal d’articles plutôt sur IEEE.

Pour le reste savoir si tel ou tel technique est de l’IA ou pas je trouve que le Larousse suffit 

https://www.larousse.fr/encyclopedie/divers/intelligence_artificielle/187257

Il ne faut pas être trop restrictif , un turbo code c’est de l’algo mais ça peut aussi être vu comme une boucle de BP dans un réseau Bayesian . Ou un ldpc … Bref pas si simple .

https://www.cnil.fr/fr/intelligence-artificielle/intelligence-artificielle-de-quoi-parle-t-on#:~:text=L'intelligence artificielle n'est,IA publié par la CNIL.

Mais oui tu as raison dérouler un algo d’Euclide ou compresser par décomposition svd ça n’est pas de l’IA

Modifié par DroitDeRéponse
  • Merci 1
Lien à poster
Partager sur d’autres sites

Membre, 56ans Posté(e)
SpookyTheFirst Membre 2 524 messages
Maitre des forums‚ 56ans‚
Posté(e)
Il y a 3 heures, DroitDeRéponse a dit :

L’IA ça existe depuis plus d’un demi siècle . Et le terme AI winter des années 70 quand on pleure sur la puissance de calcul .

Le manque de puissance de calcul n’est pas la cause du AI winter je pense.

Lien à poster
Partager sur d’autres sites

Membre, Un con qui marche ira plus loin qu'un intellectuel assis, 52ans Posté(e)
DroitDeRéponse Membre 86 913 messages
52ans‚ Un con qui marche ira plus loin qu'un intellectuel assis,
Posté(e)
Il y a 9 heures, SpookyTheFirst a dit :

Le manque de puissance de calcul n’est pas la cause du AI winter je pense.

Il y a eu le rapport Lighthill certes , mais les Lisps machines ont bien été abandonnées pour des questions de coût , et c’est bien l’augmentation de la puissance de calcul , par exemple avec les gpus qui permettent l’émergence du deep learning . Les modèles a retropropagation  and co demandent pour avoir des résultats de la puissance de calcul totalement anémique à l’époque . Donc ok c’est le manque de perspectives/ résultats notables qui mènent au rapport Lighthill mais n’est-ce pas sur le fond le manque de puissance de calcul qui en est la véritable cause ?

Dans ton domaine j’en sais rien mais dans le mien ça se termine quand même sur des bêtes de course et sur Fpga il faut élaguer à donf 

Modifié par DroitDeRéponse
Lien à poster
Partager sur d’autres sites

Membre, 56ans Posté(e)
SpookyTheFirst Membre 2 524 messages
Maitre des forums‚ 56ans‚
Posté(e)
il y a 25 minutes, DroitDeRéponse a dit :

Il y a eu le rapport Lighthill certes , mais les Lisps machines ont bien été abandonnées pour des questions de coût , et c’est bien l’augmentation de la puissance de calcul , par exemple avec les gpus qui permettent l’émergence du deep learning . Les modèles a retropropagation  and co demandent pour avoir des résultats de la puissance de calcul totalement anémique à l’époque . Donc ok c’est le manque de perspectives/ résultats notables qui mènent au rapport Lighthill mais n’est-ce pas sur le fond le manque de puissance de calcul qui en est la véritable cause ?

Dans ton domaine j’en sais rien mais dans le mien ça se termine quand même sur des bêtes de course et sur Fpga il faut élaguer à donf 

Je peux décrire le AI winter tel que je l’ai vécu car j’ai fait ma première publi sur les réseaux de neurones dans les années 90. A l’époque, la norme en IA était la logique formelle et les systèmes experts. Il y avait une petite communauté de gens infréquentables qui croyaient à nouveau au connexionisme (précédemment abandonné par tout le monde après son échec sur le XOR), infréquentables car à l’opposé de la la logique formelle où tout est compris.

De mémoire, c’est en 1998 que Le Cun publie sur les réseaux convolutionnels, où ils montraient qu’en mettant la plupart des connexions à 0 et en utilisant les même valeurs pour celles qui restaient, on pouvait apprendre bien plus vite et des choses bien plus complexes qu’avec des réseaux totalement connectés…. C’est cela qui a terminé l’hiver, bien bien avant l’avénement des GPU (que l’on utilise bien sûr beaucoup chez nous).

  • Like 1
Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
le merle Membre 21 572 messages
Maitre des forums‚
Posté(e)

Bonjour

N'oublions pas , pour l'IA , que nous somme au tout début de ses possibilités .

Un peut comme dans le début des années 1900 des premiers avions et autres .

notre génération ne verra pas ce qu'elle sera devenue et de ses possibilités dans 50 ans avec l'appuis des ordinateurs quantique et des robots trés perfectionnés .

Mais , notre civilisation bât de l'aile et à peut de chance , peut-être ,de tenir jusque lâ ?

Bonne journée 

Lien à poster
Partager sur d’autres sites

Membre, Un con qui marche ira plus loin qu'un intellectuel assis, 52ans Posté(e)
DroitDeRéponse Membre 86 913 messages
52ans‚ Un con qui marche ira plus loin qu'un intellectuel assis,
Posté(e)
il y a 14 minutes, SpookyTheFirst a dit :

Je peux décrire le AI winter tel que je l’ai vécu car j’ai fait ma première publi sur les réseaux de neurones dans les années 90. A l’époque, la norme en IA était la logique formelle et les systèmes experts. Il y avait une petite communauté de gens infréquentables qui croyaient à nouveau au connexionisme (précédemment abandonné par tout le monde après son échec sur le XOR), infréquentables car à l’opposé de la la logique formelle où tout est compris.

De mémoire, c’est en 1998 que Le Cun publie sur les réseaux convolutionnels, où ils montraient qu’en mettant la plupart des connexions à 0 et en utilisant les même valeurs pour celles qui restaient, on pouvait apprendre bien plus vite et des choses bien plus complexes qu’avec des réseaux totalement connectés…. C’est cela qui a terminé l’hiver, bien bien avant l’avénement des GPU (que l’on utilise bien sûr beaucoup chez nous).

Quand Le Cun publie le gpu et la puissance de calcul permettent de dépasser les limites des années 80 . Le Cun relance mais derrière le numérique explose évitant un nouvel hiver . C’est à la même période que les coms numériques explosent , que les ldpcs oubliés faute de puissance de calcul réapparaissent grâce aux turbo codes ET à la puissance de calcul . Le Ldpc est mort lui aussi pendant la Période winter AI , le BP étant impraticable 

Modifié par DroitDeRéponse
Lien à poster
Partager sur d’autres sites

Membre, 56ans Posté(e)
SpookyTheFirst Membre 2 524 messages
Maitre des forums‚ 56ans‚
Posté(e)
il y a 11 minutes, DroitDeRéponse a dit :

Quand Le Cun publie le gpu et la puissance de calcul permettent de dépasser les limites des années 80 . Le Cun relance mais derrière le numérique explose évitant un nouvel hiver . C’est à la même période que les coms numériques explosent , que les ldpcs oubliés faute de puissance de calcul réapparaissent grâce aux turbo codes ET à la puissance de calcul . Le Ldpc est mort lui aussi pendant la Période winter AI , le BP étant impraticable 

Non, en 1998 quand il publie, les GPUs ne sont pas utilisées pour faire du calcul (mais pour jouer….), c’est presque 10 ans plus tard que CUDA apparait. Il faut réaliser le speed-up réalisé par un réseau convolutionnel pour se rendre compte que le hardware est accessoire sur le progrés réalisé à l’époque:

Considère 2 couches de 10’000 neurones connectées (image 100x100), c’est 100 millions de poids. Par comparaison une couche convolutionnelle de 5x5 c’est 250’000 poids, donc 500x plus rapide à l’inférence tout en évitant l’overfitting (ce qui n’est pas rien!).

il y a 28 minutes, le merle a dit :

Bonjour

N'oublions pas , pour l'IA , que nous somme au tout début de ses possibilités .

Un peut comme dans le début des années 1900 des premiers avions et autres .

notre génération ne verra pas ce qu'elle sera devenue et de ses possibilités dans 50 ans avec l'appuis des ordinateurs quantique et des robots trés perfectionnés .

Bien d’accord, n’oublie pas cependant les bioprocesseurs, qui me semblent au moins aussi, voire plus prometteurs, que les processeurs quantiques... Mais là je prêche pour ma paroisse, car c’est le sujet de ma startup…:D

  • Like 1
Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
le merle Membre 21 572 messages
Maitre des forums‚
Posté(e)
il y a 5 minutes, SpookyTheFirst a dit :

Non, en 1998 quand il publie, les GPUs ne sont pas utilisées pour faire du calcul (mais pour jouer….), c’est presque 10 ans plus tard que CUDA apparait. Il faut réaliser le speed-up réalisé par un réseau convolutionnel pour se rendre compte que le hardware est accessoire sur le progrés réalisé à l’époque:

Considère 2 couches de 10’000 neurones connectées (image 100x100), c’est 100 millions de poids. Par comparaison une couche convolutionnelle de 5x5 c’est 250’000 poids, donc 500x plus rapide à l’inférence tout en évitant l’overfitting (ce qui n’est pas rien!).

Bien d’accord, n’oublie pas cependant les bioprocesseurs, qui me semblent au moins aussi, voire plus prometteurs, que les processeurs quantiques... Mais là je prêche pour ma paroisse, car c’est le sujet de ma startup…:D

Bonjour

Malgré tout, il semble impossible de prédire quoi que se soit dans les 50 ans à venir , pour la bonne raison que certains des éléments actuels dont nous avons connaissance, ont une évolution inconnue ?

Sans compter la survenue d'autres éléments à venir , issus des situations actuelles?

Bonne journée

Lien à poster
Partager sur d’autres sites

Membre, 56ans Posté(e)
SpookyTheFirst Membre 2 524 messages
Maitre des forums‚ 56ans‚
Posté(e)
Il y a 1 heure, le merle a dit :

Bonjour

Malgré tout, il semble impossible de prédire quoi que se soit dans les 50 ans à venir , pour la bonne raison que certains des éléments actuels dont nous avons connaissance, ont une évolution inconnue ?

Sans compter la survenue d'autres éléments à venir , issus des situations actuelles?

Bonne journée

En effet, par exemple, les modèles de langage (word embedding) qui ont donné chatGPT, les Generative Adversarial Networks (les réseaux qui s’améliorent en se défiant mutuellement) sont des inventions simples dans leur principe mais que peu avaient vu venir (et certainement pas moi…).
 

On pourraient imaginer que les algos génétiques pourraient (enfin) faire un carton avec des ordis quantiques, quant aux bioprocesseurs ils promettent des capacités entre 1million et 1 milliard de fois supèrieurs aux réseaux de neurones digitaux, à énergie égale…

Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
le merle Membre 21 572 messages
Maitre des forums‚
Posté(e)
Il y a 3 heures, SpookyTheFirst a dit :

En effet, par exemple, les modèles de langage (word embedding) qui ont donné chatGPT, les Generative Adversarial Networks (les réseaux qui s’améliorent en se défiant mutuellement) sont des inventions simples dans leur principe mais que peu avaient vu venir (et certainement pas moi…).
 

On pourraient imaginer que les algos génétiques pourraient (enfin) faire un carton avec des ordis quantiques, quant aux bioprocesseurs ils promettent des capacités entre 1million et 1 milliard de fois supèrieurs aux réseaux de neurones digitaux, à énergie égale…

Bonjour

La question sans réponse serait : les machines créé par l'homme ,vont -elles le dominer un jours? qui pourra s'opposer à l'IA épaulée par des ordinateurs quantique qui possèderont toutes les connaissances humaines et au dela et capable d'agir en une fraction de seconde .

Ce qui existe aujourd'hui dans ces machines ,sera dépassé par d'autres plus puissantes et rapides .la science fiction n'à fait que prédire sans le savoir , une réalité possible et encore plus extraordinaire peut-être ?

Bonne journée

Lien à poster
Partager sur d’autres sites

Membre, 56ans Posté(e)
SpookyTheFirst Membre 2 524 messages
Maitre des forums‚ 56ans‚
Posté(e)
Il y a 1 heure, le merle a dit :

Bonjour

La question sans réponse serait : les machines créé par l'homme ,vont -elles le dominer un jours? qui pourra s'opposer à l'IA épaulée par des ordinateurs quantique qui possèderont toutes les connaissances humaines et au dela et capable d'agir en une fraction de seconde .

Ce qui existe aujourd'hui dans ces machines ,sera dépassé par d'autres plus puissantes et rapides .la science fiction n'à fait que prédire sans le savoir , une réalité possible et encore plus extraordinaire peut-être ?

Bonne journée

Oui, je pense que l’avenir est peut-être dans les GAN, c’est à dire des IA qui se tirent la bourre pour devenir plus performantes. La Singularité est peut-être plus proche que ce l’on croyait….

  • Like 1
Lien à poster
Partager sur d’autres sites

Membre, 53ans Posté(e)
Natco Membre 435 messages
Forumeur expérimenté‚ 53ans‚
Posté(e)

Non, je n'ai pas peur. Je dirais même que ça m'intrigue. De toute façon, l'IA existe depuis plusieurs années maintenant et est partout, sans que nous en ayant vraiment conscience. Mais c'est comme avec tout, le problème est de savoir ce que nous allons et pouvons en faire. Jusqu'où pouvons-nous aller? Le problème du non-retour se pose toujours.

  • Like 1
Lien à poster
Partager sur d’autres sites

Membre, Un con qui marche ira plus loin qu'un intellectuel assis, 52ans Posté(e)
DroitDeRéponse Membre 86 913 messages
52ans‚ Un con qui marche ira plus loin qu'un intellectuel assis,
Posté(e)
Il y a 9 heures, SpookyTheFirst a dit :

Non, en 1998 quand il publie, les GPUs ne sont pas utilisées pour faire du calcul (mais pour jouer….), c’est presque 10 ans plus tard que CUDA apparait. Il faut réaliser le speed-up réalisé par un réseau convolutionnel pour se rendre compte que le hardware est accessoire sur le progrés réalisé à l’époque:

En 2000 tu as la puissance de calcul. Tu fais déjà tourner si convolutionnel type viterbi à plusieurs Mbps ce qui était impossible avant et les techniques turbo et ldpc décollent . 
Des 2002 on commence les algos velus maths sur gpu et le gpgpu . Ça n’enlève rien à Le Cun , mais le manque de perspective de l’Ia dans les années 70 c’est comme les ldpc de Gallager , un manque de puissance de calcul 

Modifié par DroitDeRéponse
Lien à poster
Partager sur d’autres sites

Membre, 56ans Posté(e)
SpookyTheFirst Membre 2 524 messages
Maitre des forums‚ 56ans‚
Posté(e)
il y a 22 minutes, DroitDeRéponse a dit :

En 2000 tu as la puissance de calcul. Tu fais déjà tourner si convolutionnel type viterbi à plusieurs Mbps ce qui était impossible avant et les techniques turbo et ldpc décollent . 
Des 2002 on commence les algos velus maths sur gpu et le gpgpu . Ça n’enlève rien à Le Cun , mais le manque de perspective de l’Ia dans les années 70 c’est comme les ldpc de Gallager , un manque de puissance de calcul 

Tu parle de channel coding, je ne vois pas le rapport avec l’IA, je ne connais aucun travail reliant les deux (ce qui révèle sans doute juste ma méconaissance…:D).
Et à ma connaissance, les système experts types réseaux bayésiens qui pouvaient être envisagés dans les années 70 nécessitaient une puissance de calcul négligeable.

Lien à poster
Partager sur d’autres sites

Membre, Un con qui marche ira plus loin qu'un intellectuel assis, 52ans Posté(e)
DroitDeRéponse Membre 86 913 messages
52ans‚ Un con qui marche ira plus loin qu'un intellectuel assis,
Posté(e)
il y a 45 minutes, SpookyTheFirst a dit :

Tu parle de channel coding, je ne vois pas le rapport avec l’IA, je ne connais aucun travail reliant les deux (ce qui révèle sans doute juste ma méconaissance…:D).

Le ldpc c’est du belief propagation sur les premiers algo ( maintenant on fait mieux ) 

https://arxiv.org/abs/2205.00481

Mais ce n’est pas mon point , mon point est que tout comme l’IA ça a été abandonné jusqu’aux années 2000 , quand la puissance de calcul a été au rdv et quand Berrou avec les turbo codes a recréé de l’intérêt pour les travaux de Gallager, un peu comme Le Cun avec le convolutionnel. Bref dans les deux cas une découverte + puissance de calcul et ça a relancé la machine . 
Pour le lien Channel coding NR cf également travaux de Vincent Gripon de mémoire 

  • Confus 1
Lien à poster
Partager sur d’autres sites

Membre, 56ans Posté(e)
SpookyTheFirst Membre 2 524 messages
Maitre des forums‚ 56ans‚
Posté(e)
Il y a 12 heures, DroitDeRéponse a dit :

Le ldpc c’est du belief propagation sur les premiers algo ( maintenant on fait mieux ) 

https://arxiv.org/abs/2205.00481

Mais ce n’est pas mon point , mon point est que tout comme l’IA ça a été abandonné jusqu’aux années 2000 , quand la puissance de calcul a été au rdv et quand Berrou avec les turbo codes a recréé de l’intérêt pour les travaux de Gallager, un peu comme Le Cun avec le convolutionnel. Bref dans les deux cas une découverte + puissance de calcul et ça a relancé la machine . 
Pour le lien Channel coding NR cf également travaux de Vincent Gripon de mémoire 

D’accord, mais s’il y a en effet bien des gens qui établissent un lien entre ldpc et neural networks (dans ce que google me montre pisque j’y connais fichtre rien), il me semble anecdotique vu que l’on trouve des publis qui les combinent pour des raisons totalement différentes.

Je ne pense pas non plus que l’on puisse établir un parallèle avec l’IA en ce qui concerne l’évolution des besoins en puissance de calcul (comme j’espère l’avoir montré).

Lien à poster
Partager sur d’autres sites

Membre, Un con qui marche ira plus loin qu'un intellectuel assis, 52ans Posté(e)
DroitDeRéponse Membre 86 913 messages
52ans‚ Un con qui marche ira plus loin qu'un intellectuel assis,
Posté(e)
il y a une heure, SpookyTheFirst a dit :

D’accord, mais s’il y a en effet bien des gens qui établissent un lien entre ldpc et neural networks (dans ce que google me montre pisque j’y connais fichtre rien), il me semble anecdotique vu que l’on trouve des publis qui les combinent pour des raisons totalement différentes.

Je ne pense pas non plus que l’on puisse établir un parallèle avec l’IA en ce qui concerne l’évolution des besoins en puissance de calcul (comme j’espère l’avoir montré).

Le programme d’apprentissage qui les distingue est relativement simple (quelques pages de code). Il utilise des maths du 18 ème siècle, et de l’informatique du siècle dernier. Ce qui a véritablement fait marcher tout cela, ce sont des puissances de calcul considérable, la disponibilité de grands corpus de données numériques, et le développement de nouveaux algorithmes dans les années 1980 : les réseaux neuronaux artificiels multicouche et la rétropropagation du gradient de l’erreur.
 

Y. le Cun

https://theconversation.com/amp/autour-de-linformatique-yann-lecun-lapprentissage-profond-avant-tout-86953

Modifié par DroitDeRéponse
  • Confus 1
Lien à poster
Partager sur d’autres sites

Membre, 66ans Posté(e)
VladB Membre 13 881 messages
Maitre des forums‚ 66ans‚
Posté(e)
Le 23/07/2023 à 20:50, DroitDeRéponse a dit :

Pour le reste savoir si tel ou tel technique est de l’IA ou pas je trouve que le Larousse suffit 

https://www.larousse.fr/encyclopedie/divers/intelligence_artificielle/187257

Il ne faut pas être trop restrictif , un turbo code c’est de l’algo mais ça peut aussi être vu comme une boucle de BP dans un réseau Bayesian . Ou un ldpc … Bref pas si simple .

Oui après mure réflexion il me semble que j'ai avancé un propos plutôt erroné. En fait je me souvenais de discussions avec quelques collèges où nous devisions de ce qu'est l'intelligence artificielle. Nous avions plus ou moins convenu que les frontières étaient floues et qu'en fait, ce qu'on pourrait qualifier d'IA, c'était une façon, une méthode de programmation. Sans plus, à savoir qu'un résultat obtenu avec une technologie d'IA pouvait tout aussi bien se produire avec une approche plus classique.

D'où cette idée de classification par méthode de développement plutôt que par service obtenu. Du coup c'était simple à l'époque (fin années 80) de classer simplement : Système à base de règles, algo génétiques, réseaux neuronaux. Le reste étant classique (non IA). C'est pourquoi je ne préférais pas classer un programme d'échec et tout autre algo avancé dans la catégorie IA.

Mais en effet la définition du Larousse me semble bonne Ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence humaine.

Du coup on mets aussi le programme d'échec là dedans. C'est pourtant très mécanique. Mais pourquoi pas.

Je me souviens que nous avions programmé avec mon équipe un jeu de RISK en réseau. La planète avec des états et des armées qui s'affrontent pour la domination du globe. Les armées c'est ultrasimple, c'est un chiffre de troupes et si elle sont plus nombreuse que l'état d'à coté, elle vont probablement gagner malgré le random. Un simple click permet de lancer combats et transferts de troupes. Jeu temps réel en réseau et tout le monde s'insulte de bon coeur dans la pièce lors de soirées arrosées. Il a suffit d'un weekend pluvieux pour que je programme une IA. Le monde du jeu vidéo appelle ça l'IA mais franchement je répugnais à classer ces quelques pages de code dans cette catégorie.

  • Like 1
Lien à poster
Partager sur d’autres sites

Membre, Un con qui marche ira plus loin qu'un intellectuel assis, 52ans Posté(e)
DroitDeRéponse Membre 86 913 messages
52ans‚ Un con qui marche ira plus loin qu'un intellectuel assis,
Posté(e)
Il y a 4 heures, VladB a dit :

Je me souviens que nous avions programmé avec mon équipe un jeu de RISK en réseau. La planète avec des états et des armées qui s'affrontent pour la domination du globe. Les armées c'est ultrasimple, c'est un chiffre de troupes et si elle sont plus nombreuse que l'état d'à coté, elle vont probablement gagner malgré le random. Un simple click permet de lancer combats et transferts de troupes. Jeu temps réel en réseau et tout le monde s'insulte de bon coeur dans la pièce lors de soirées arrosées.
 

Genre le jeu « colonial conquest » ?

Il y a 4 heures, VladB a dit :

Il a suffit d'un weekend pluvieux pour que je programme une IA. Le monde du jeu vidéo appelle ça l'IA mais franchement je répugnais à classer ces quelques pages de code dans cette catégorie.

Une INA peut tout à fait utiliser son réseau neuronal pour dérouler une force brute :p

 

Lien à poster
Partager sur d’autres sites

Annonces
Maintenant

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

Chargement

×