L'intelligence artificielle
- Epistème
- Administrateur
- Messages : 135
- Inscription : 08 avr. 2017, 12:00
On peut situer l'origine du concept d'intelligence artificielle dans un article qu'Alan Turing a publié en 1950 et intitulé "Computing machinery and intelligence". Il y propose ce qu'on nomme aujourd'hui le test de Turing, fondé sur la capacité d'imiter la conversation humaine, et dans lequel un humain converse en aveugle avec un ordinateur et un autre humain au moyen de messages textuels : si l'humain est incapable de savoir avec qui il parle, alors le logiciel exécuté par l'ordinateur est déclaré avoir passé le test. D'après Turing, l'ordinateur en question peut dès lors être qualifié de "conscient". Il pose en outre, au cours d'une conférence diffusée par la BBC en 1951, la question de savoir si les calculateurs numériques sont capables de penser. C'est le commencement de la recherche visant à développer des "machines pensantes".
D'après le dictionnaire, intelligence artificielle signifie "ensemble des théories et des techniques visant à réaliser des machines pouvant simuler les fonctions cognitives de l’être humain". Le mot le plus important dans cette définition est selon moi "simuler". Contrairement à l'idée très répandue selon laquelle il est tout à fait envisageable de créer des machines pensantes, à quoi s'ajoute le fait que les progrès de la technologie sont réputés permettre année après année de se rapprocher de cet objectif, je pense pour ma part que c'est une vue de l'esprit, et que le vocable "intelligence artificielle" devrait être remplacé par celui d' "intelligence simulée". Nos soit-disant machines intelligentes sont incapables de reproduire de leur propre chef le comportement humain, elles ne peuvent que le simuler (je dirais même le singer). Si le vocable "machine intelligente" est porteur en termes de marketing, il est cependant trompeur, et nombre de consommateurs émerveillés se font en réalité rouler dans la farine. Un ordinateur est capable d'une seule chose : exécuter un programme informatique. Si on l'en prive il devient aussi inerte et inutile qu'un caillou, et cesse de donner le moindre signe d'intelligence. L'intelligence prétendue d'un ordinateur est donc produite par des algorithmes, rien de plus. Le programmeur va par exemple faire en sorte que lorsqu'on demandera à la machine si elle est stupide, elle s'empressera de répondre non sur un ton offusqué, tout comme n'importe quel humain le ferait. C'est ce qu'on appelle simuler l'intelligence : on observe la manière dont agit et réagit un humain, et on programme la machine pour qu'elle fasse de même. Derrière l'intelligence artificielle il y a de brillants programmeurs qui mettent en œuvre de puissants algorithmes. L'intelligence prétendue de la machine est en réalité une simulation de la leur ; s'ils ont omis un aspect particulier du comportement humain dans une situation donnée, la machine l'omettra également et réagira d'une manière inattendue, si toutefois elle réagit. La complexité des algorithmes en question réside donc dans le fait qu'ils doivent prendre en compte toutes les réponses et comportements possibles dans cette situation, et plus leur éventail sera large plus la machine s'approchera de l'objectif qui est de donner l'impression qu'elle pense et agit par elle-même.
A la source de cette fiction se trouve la confusion que l'immense majorité des gens font entre intelligence et faculté de penser. A l'instar de Descartes, on croit généralement qu'être est synonyme de penser, mais c'est l'inverse qui est vrai : il aurait dû écrire "je suis donc je pense" plutôt que "je pense donc je suis". On peut effectivement mettre en correspondance le mécanisme des pensées et le fonctionnement d'un programme informatique, et d'ailleurs les réseaux neuronaux artificiels sont très utilisés dans le domaine des statistiques et des méthodes d'apprentissage, qui se substituent à des algorithmes impossibles à réaliser. D'où l'idée qui semble s'imposer que les machines sont capables de penser à la manière des humains. Il n'y a cependant rien de plus faux. Ce qui manque et manquera toujours aux machines est la conscience, qui est le fait de savoir qu'on existe - ce qu'une machine ne sait pas -, et c'est uniquement en reproduisant l'erreur de Descartes qu'on parvient à la conclusion que pensée est synonyme de conscience (le "je suis"). En réalité, la conscience préexiste à la pensée, car un être privé de conscience pour une raison quelconque ne peut pas "observer" son activité mentale, ce qui signifie qu'il ne peut pas en être conscient, et que par conséquent cette activité a lieu "à vide". Avec un peu d'entraînement on peut même momentanément stopper sa pensée ; il est évident que ce n'est pas la pensée elle-même qui prend la décision de s'arrêter, mais que celle-ci lui est imposée par la conscience. De la même manière, c'est la conscience qui nous permet d'orienter nos pensées dans une direction particulière, ce qu'on nomme réfléchir, afin de résoudre un problème. Une machine ne peut pas reproduire la réflexion, elle ne peut donc résoudre aucun problème inconnu d'elle. Ceux qu'elle résout le sont à partir des algorithmes qu'elle a en mémoire et en respectant un processus imposé et déterministe. Elle ne peut choisir de s'orienter dans une autre direction que si le cas a été prévu par le programmeur, et ceci parce qu'étant privée de conscience elle ne dispose d'aucune volonté propre.
Le jour où les personnes impliquées dans la recherche sur l'intelligence artificielle feront la différence entre pensée et conscience, elles réaliseront qu'il est impossible de rendre une machine intelligente. De ce fait, la prise de pouvoir par les machines, augurée par quelques esprits inquiets (dont Bill Gates), n'est qu'une chimère. A moins bien sûr qu'elles ne soient programmées dans ce sens par un disciple du docteur Mabuse...
D'après le dictionnaire, intelligence artificielle signifie "ensemble des théories et des techniques visant à réaliser des machines pouvant simuler les fonctions cognitives de l’être humain". Le mot le plus important dans cette définition est selon moi "simuler". Contrairement à l'idée très répandue selon laquelle il est tout à fait envisageable de créer des machines pensantes, à quoi s'ajoute le fait que les progrès de la technologie sont réputés permettre année après année de se rapprocher de cet objectif, je pense pour ma part que c'est une vue de l'esprit, et que le vocable "intelligence artificielle" devrait être remplacé par celui d' "intelligence simulée". Nos soit-disant machines intelligentes sont incapables de reproduire de leur propre chef le comportement humain, elles ne peuvent que le simuler (je dirais même le singer). Si le vocable "machine intelligente" est porteur en termes de marketing, il est cependant trompeur, et nombre de consommateurs émerveillés se font en réalité rouler dans la farine. Un ordinateur est capable d'une seule chose : exécuter un programme informatique. Si on l'en prive il devient aussi inerte et inutile qu'un caillou, et cesse de donner le moindre signe d'intelligence. L'intelligence prétendue d'un ordinateur est donc produite par des algorithmes, rien de plus. Le programmeur va par exemple faire en sorte que lorsqu'on demandera à la machine si elle est stupide, elle s'empressera de répondre non sur un ton offusqué, tout comme n'importe quel humain le ferait. C'est ce qu'on appelle simuler l'intelligence : on observe la manière dont agit et réagit un humain, et on programme la machine pour qu'elle fasse de même. Derrière l'intelligence artificielle il y a de brillants programmeurs qui mettent en œuvre de puissants algorithmes. L'intelligence prétendue de la machine est en réalité une simulation de la leur ; s'ils ont omis un aspect particulier du comportement humain dans une situation donnée, la machine l'omettra également et réagira d'une manière inattendue, si toutefois elle réagit. La complexité des algorithmes en question réside donc dans le fait qu'ils doivent prendre en compte toutes les réponses et comportements possibles dans cette situation, et plus leur éventail sera large plus la machine s'approchera de l'objectif qui est de donner l'impression qu'elle pense et agit par elle-même.
A la source de cette fiction se trouve la confusion que l'immense majorité des gens font entre intelligence et faculté de penser. A l'instar de Descartes, on croit généralement qu'être est synonyme de penser, mais c'est l'inverse qui est vrai : il aurait dû écrire "je suis donc je pense" plutôt que "je pense donc je suis". On peut effectivement mettre en correspondance le mécanisme des pensées et le fonctionnement d'un programme informatique, et d'ailleurs les réseaux neuronaux artificiels sont très utilisés dans le domaine des statistiques et des méthodes d'apprentissage, qui se substituent à des algorithmes impossibles à réaliser. D'où l'idée qui semble s'imposer que les machines sont capables de penser à la manière des humains. Il n'y a cependant rien de plus faux. Ce qui manque et manquera toujours aux machines est la conscience, qui est le fait de savoir qu'on existe - ce qu'une machine ne sait pas -, et c'est uniquement en reproduisant l'erreur de Descartes qu'on parvient à la conclusion que pensée est synonyme de conscience (le "je suis"). En réalité, la conscience préexiste à la pensée, car un être privé de conscience pour une raison quelconque ne peut pas "observer" son activité mentale, ce qui signifie qu'il ne peut pas en être conscient, et que par conséquent cette activité a lieu "à vide". Avec un peu d'entraînement on peut même momentanément stopper sa pensée ; il est évident que ce n'est pas la pensée elle-même qui prend la décision de s'arrêter, mais que celle-ci lui est imposée par la conscience. De la même manière, c'est la conscience qui nous permet d'orienter nos pensées dans une direction particulière, ce qu'on nomme réfléchir, afin de résoudre un problème. Une machine ne peut pas reproduire la réflexion, elle ne peut donc résoudre aucun problème inconnu d'elle. Ceux qu'elle résout le sont à partir des algorithmes qu'elle a en mémoire et en respectant un processus imposé et déterministe. Elle ne peut choisir de s'orienter dans une autre direction que si le cas a été prévu par le programmeur, et ceci parce qu'étant privée de conscience elle ne dispose d'aucune volonté propre.
Le jour où les personnes impliquées dans la recherche sur l'intelligence artificielle feront la différence entre pensée et conscience, elles réaliseront qu'il est impossible de rendre une machine intelligente. De ce fait, la prise de pouvoir par les machines, augurée par quelques esprits inquiets (dont Bill Gates), n'est qu'une chimère. A moins bien sûr qu'elles ne soient programmées dans ce sens par un disciple du docteur Mabuse...
- 20-sided-dice
- Messages : 68
- Inscription : 08 avr. 2017, 17:52
Alors tout d'abord, je ne suis pas tout à fait d'accord avec toi quand tu dis que la pensée et la conscience sont deux choses radicalement différente. Cela m'a l'air d'une considération philosophique douteuse, plus intuitive qu'autre chose. Malheureusement, notre intuition pour analyser le fonctionnement de la pensée/conscience humaine est un TRES mauvais outil.
Par exemple, certains philosophes ont la fâcheuse manie de séparer passions et réflexion, affirmant que ces deux facettes de la pensée humaine seraient contradictoires ou fondamentalement différentes. En l'occurrence c'est faux.
Sinon, je suis d'accord pour dire qu'aujourd'hui les ordinateurs ne font que copier des comportements codés. Je pense même que tu enfonces des portes ouvertes en l'affirmant. Mais dire que JAMAIS une machine ne pourrait voir conscience de son existence est peut-être un peu précipité, tant les progrès en informatique vont à une vitesse exponentielle. Par exemple, sache que des spécialistes du domaine ont réussi à coder le phénomène d'apprentissage chez un robot ! Incroyable !
Ils mettaient le robot face à une suite de chiffres ou de lettres avec une certaine logique (par exemple 10, 9, 8, 7, ?) et le robot appliquait un programme pour le faire "chercher" la logique à un problème inconnu.
Enfin, je trouve que tu surestime les capacités humaines. Je pense que face à un problème inconnu, tu ne fera pas beaucoup mieux qu'un robot non programmé pour le-dit problème, même si ta réaction sera certainement plus intelligente
Ah oui, et Descartes avait raison de dire "cogito ergo sum" car cette phrase lui permettait de mettre un point de départ à sa réflexion (car il appliquait un doute méthodique) en étant sûr de sa propre existence, grâce au fait qu'il pense.
Par exemple, certains philosophes ont la fâcheuse manie de séparer passions et réflexion, affirmant que ces deux facettes de la pensée humaine seraient contradictoires ou fondamentalement différentes. En l'occurrence c'est faux.
Sinon, je suis d'accord pour dire qu'aujourd'hui les ordinateurs ne font que copier des comportements codés. Je pense même que tu enfonces des portes ouvertes en l'affirmant. Mais dire que JAMAIS une machine ne pourrait voir conscience de son existence est peut-être un peu précipité, tant les progrès en informatique vont à une vitesse exponentielle. Par exemple, sache que des spécialistes du domaine ont réussi à coder le phénomène d'apprentissage chez un robot ! Incroyable !
Ils mettaient le robot face à une suite de chiffres ou de lettres avec une certaine logique (par exemple 10, 9, 8, 7, ?) et le robot appliquait un programme pour le faire "chercher" la logique à un problème inconnu.
Enfin, je trouve que tu surestime les capacités humaines. Je pense que face à un problème inconnu, tu ne fera pas beaucoup mieux qu'un robot non programmé pour le-dit problème, même si ta réaction sera certainement plus intelligente
Ah oui, et Descartes avait raison de dire "cogito ergo sum" car cette phrase lui permettait de mettre un point de départ à sa réflexion (car il appliquait un doute méthodique) en étant sûr de sa propre existence, grâce au fait qu'il pense.
- Epistème
- Administrateur
- Messages : 135
- Inscription : 08 avr. 2017, 12:00
Une manière simple de le comprendre est d'observer que les animaux sont conscients alors qu'ils ne pensent pas (du moins pas de manière aussi élaborée que chez l'être humain). Il t'est certainement déjà arrivé, lorsqu'il fait nuit, de quitter une pièce pour ensuite te demander si tu as bien éteint la lumière. Pourquoi ce doute te vient-il ? Tout simplement parce qu'au moment où tu es sorti de cette pièce tu n'étais pas là ; tu étais ailleurs, plongé dans tes pensées, alors tu ne sais plus ce que tu as fait à ce moment précis. Tu l'aurais su si tu avais adopté l'attitude d'esprit qui consiste à savoir ce qu'on fait, c'est-à-dire être totalement présent dans ce qu'on est en train de faire au lieu de penser à tout autre chose. Cette présence est la conscience. Si tu te maintiens dans cette présence tu verras que ta pensée cesse, ou au moins que son importance diminue. C'est l'état dans lequel se trouvent naturellement les animaux. N'étant pas plongés dans leurs pensées du lever au coucher ils sont totalement présents en toute circonstance, ce qui est la raison pour laquelle leur temps de réaction face à une situation dangereuse est très inférieur au nôtre. Certains sportifs de haut niveau sont dans cet état de conscience sans le savoir, comme les pilotes de rallye ou de F1, parce que la moindre inattention pourrait leur coûter la vie.20-sided-dice a écrit : ↑14 juin 2017, 16:27Alors tout d'abord, je ne suis pas tout à fait d'accord avec toi quand tu dis que la pensée et la conscience sont deux choses radicalement différente. Cela m'a l'air d'une considération philosophique douteuse, plus intuitive qu'autre chose.
Une expérience a d'ailleurs été tentée dans ce sens. On place le sujet devant un écran tactile sur lequel s'affichent durant quelques secondes les chiffres de 1 à 9, à des emplacement aléatoires, puis on remplace les chiffres par des carrés tous identiques. On demande alors au sujet d'éteindre ces carrés en les touchant dans l'ordre des chiffres qu'ils représentent. Les chances de réussite d'un humain sont extrêmement faibles, alors qu'un primate (gorille, chimpanzé, bonobo, orang-outan) a un taux de réussite de 100%, même lorsque les chiffres ne sont affichés que pendant un bref instant. La seule difficulté avec les primates est de leur apprendre la manipulation à laquelle ils doivent se livrer, qui requiert de leur part un apprentissage plus long que chez l'homme, notamment à cause du fait qu'il faut leur enseigner l'ordre des chiffres. Mais une fois qu'ils ont compris ils éteignent tous les carrés du premier coup et sans aucune hésitation. La raison en est qu'au moment où les chiffres sont affichés ils sont en état d'observation totale, et non pas en train de penser à autre chose. Il n'y a chez eux aucune pensée qui pourrait les distraire, mais seulement la présence consciente.
Voici la vidéo de l'expérience sur les chimpanzés : https://www.youtube.com/watch?v=OIzijKXUO_0
Comment des ingénieurs incapables de faire la distinction entre être plongé dans ses pensées et être présent à soi, pourraient-ils insuffler la conscience à des machines ? Et même s'ils la faisaient ils ne le pourraient pas davantage, parce que cette conscience d'être est la vie elle-même, et une machine n'est, par définition, pas en vie, sinon ce ne serait plus une machine. Le Dr Frankenstein lui-même ne pourrait pas insuffler la vie à un tas de ferraille.
Je m'adressais aux millions de gens qui font une overdose quotidienne de publicité télévisuelle, et qui croient dur comme fer que leur smartphone, par exemple, est intelligent, et que l'assistant personnel qui va avec est aussi efficace qu'une secrétaire de direction. Ils n'ont aucune idée de ce qu'est l'intelligence artificielle et représentent donc des cibles idéales pour les marchands de rêve.20-sided-dice a écrit : ↑14 juin 2017, 16:27Sinon, je suis d'accord pour dire qu'aujourd'hui les ordinateurs ne font que copier des comportements codés. Je pense même que tu enfonces des portes ouvertes en l'affirmant.
- 20-sided-dice
- Messages : 68
- Inscription : 08 avr. 2017, 17:52
Ah d'accord, dans ce cas, pourrais-tu donner une définition (même pas très rigoureuse) pour être bien sûr de ce que l'on parle s'il-te-plaît ? Aussi, concernant l'expérience sur les grands singes, je ne pense pas qu'elle permette de conclure qu'ils sont plus cons centrés (haha ) que nous car toutes les espèces ne "voient" pas à la même vitesse.
Tu t'es déjà demandé comment la mouche peut-elle avoir des réflexes aussi incroyables ? C'est parce qu'elle voit bien plus d'images par secondes ; elle a ainsi "le temps" de réagir face à la tapette qui fonce vers elle. Et statistiquement, ce sont les animaux les plus bas dans la chaîne alimentaire qui ont le plus de fps.Comme les grands singes sont plus souvent que nous des proies, on peut se dire que ce n'est finalement pas si étonnant.
Cette explication était anecdotique, en attendant ta def.
Tu t'es déjà demandé comment la mouche peut-elle avoir des réflexes aussi incroyables ? C'est parce qu'elle voit bien plus d'images par secondes ; elle a ainsi "le temps" de réagir face à la tapette qui fonce vers elle. Et statistiquement, ce sont les animaux les plus bas dans la chaîne alimentaire qui ont le plus de fps.Comme les grands singes sont plus souvent que nous des proies, on peut se dire que ce n'est finalement pas si étonnant.
Cette explication était anecdotique, en attendant ta def.
- Epistème
- Administrateur
- Messages : 135
- Inscription : 08 avr. 2017, 12:00
Tu dois pourtant bien admettre que si les singes font un sans faute à chaque fois, et que les humains arrivent rarement à éteindre tous les carrés, c'est bien parce que les premiers mémorisent très rapidement la position des chiffres et qu'ils conservent cette mémoire, autrement dit qu'elle n'est ni polluée ni ruinée par des "pensées" étrangères au cours du processus, ce qui prouve à quel point ils sont concentrés !20-sided-dice a écrit : ↑16 juin 2017, 18:47Aussi, concernant l'expérience sur les grands singes, je ne pense pas qu'elle permette de conclure qu'ils sont plus cons centrés (haha ) que nous
Pourrais-tu expliquer plus précisément le genre de définition que tu attends de moi ?20-sided-dice a écrit : ↑16 juin 2017, 18:47Ah d'accord, dans ce cas, pourrais-tu donner une définition (même pas très rigoureuse) pour être bien sûr de ce que l'on parle s'il-te-plaît ?
- 20-sided-dice
- Messages : 68
- Inscription : 08 avr. 2017, 17:52
Eh bien, par conscience, je pensais au début que tu voulais dire : "capacité d'un individu à se rendre compte de son existence et à étudier sa position dans son environnement d'un point de vue détaché". Pour pensées, j'aurais dit : "tout ou partie d'un raisonnement mental, abstrait ou concret" mais je crois qu'il faudrait qu'elle soit plus précise. Mais je ne pense pas que tu considères les mêmes sens de conscience et de pensée, ou qu'il y a au moins une nuance.
Enfin, pour chipoter une dernière fois sur cette expérience (je suis un peu têtu), on peut remarquer que les singes étaient entraînés, alors que les êtres humains testés ne l'étaient probablement pas. Comment dire si des êtres humains entraînés ne pourraient-ils pas y arriver aussi ? La mémoire, ça se travaille.
Je peux paraître obtus, mais je pense que tu m'as convaincu, en ce qui concerne ton interprétation de cette expérience qui est intéressante, mais je voudrais bien être plus sûr que ça.
Enfin, pour chipoter une dernière fois sur cette expérience (je suis un peu têtu), on peut remarquer que les singes étaient entraînés, alors que les êtres humains testés ne l'étaient probablement pas. Comment dire si des êtres humains entraînés ne pourraient-ils pas y arriver aussi ? La mémoire, ça se travaille.
Je peux paraître obtus, mais je pense que tu m'as convaincu, en ce qui concerne ton interprétation de cette expérience qui est intéressante, mais je voudrais bien être plus sûr que ça.
- Epistème
- Administrateur
- Messages : 135
- Inscription : 08 avr. 2017, 12:00
Le plus simple est de prendre la définition du dictionnaire :20-sided-dice a écrit : ↑17 juin 2017, 19:14Mais je ne pense pas que tu considères les mêmes sens de conscience et de pensée, ou qu'il y a au moins une nuance.
Penser : Former des idées par la réflexion ; concevoir des notions par l’activité intellectuelle.
Conscience : Sentiment, perception que l’être humain a de lui-même, de sa propre existence, ainsi que du monde extérieur.
La définition du mot penser est cependant incomplète, il manque la notion de "pensée automatique". On ne passe pas le plus clair de notre temps à "former des idées par la réflexion" mais à suivre l'enchainement chaotique des pensées qui se succèdent dans notre tête, et que nous sommes incapables de contrôler. Ce sont elles qui focalisent notre attention et qu'on associe à tort à la conscience. En réalité, le piège dans lequel les humains sont tombés est celui de l'identification de la conscience aux pensées. C'est exactement la raison pour laquelle tant de gens croient que la conscience et l'intelligence relèvent de la pensée, et comme il est possible de créer des algorithmes capables de simuler le cheminement d'idées que nous-mêmes suivons pour aller de l'énoncé d'un problème jusqu'à sa solution, on en est venus à croire que cette simulation était l'image même de l'intelligence, et on l'a nommée "intelligence artificielle".
Qu'est-ce que dit le dictionnaire à propos de l'intelligence ? C'est 1) "la faculté de comprendre, de connaître, de saisir par la pensée", et 2) "l'aptitude d’un être vivant à s’adapter à une situation nouvelle, à comprendre et à résoudre certaines difficultés, à donner un sens aux choses qui l’entourent, à agir avec discernement.". Chez le singe, l'intelligence correspond à la définition 2 seulement, comme chez tous les êtres vivants, de la bactérie à la baleine bleue. Mais fâcheusement pas chez l'homme, pour qui l'intelligence correspond aux définitions 1 et 2, toujours pour la même raison que conscience et intelligence sont pour lui associées à la pensée, d'où sa conclusion que la compréhension de toute chose passe nécessairement par elle et par les concepts qu'elle élabore. La science telle qu'on la conçoit est le résultat de cette mécompréhension, dont la conséquence logique est l’absence de prise en compte de la nature véritable de la conscience, qui est tout simplement ignorée en même temps que les facultés psychiques liées à son développement chez certains individus.
Le seul apprentissage auquel les singes ont été soumis a consisté pour eux à apprendre les chiffres de 1 à 9 et leur ordre naturel (sans d'ailleurs qu'il leur soit nécessaire de savoir les nommer), ainsi qu'à les faire disparaître en les touchant sur l'écran, tout ce qu'un jeune enfant sait déjà et qu'il est donc inutile de lui apprendre avant de participer aux tests.20-sided-dice a écrit : ↑17 juin 2017, 19:14on peut remarquer que les singes étaient entraînés, alors que les êtres humains testés ne l'étaient probablement pas.
Le fait d'apprendre à retenir la position des chiffres sur l'écran jusqu'à les avoir tous éteints ne résulte aucunement d'un enseignement, que ce soit à un humain ou à un singe. Le singe mémorise leur position jusqu'au dernier parce que son attention est naturellement concentrée sur cette seule tâche ; l'attention de l'humain est parasitée par ses pensées vagabondes, il est constamment déconcentré, par conséquent le seul apprentissage qu'il devrait subir consisterait à savoir investir toute son attention dans ce qu'il est en train de faire, et sans doute qu'avec de l'entraînement il finirait lui aussi par répéter les sans-faute. Il ne s'agit donc pas d'un travail sur la mémoire mais sur l'attention, et la différence est énorme : pour reprendre l'exemple de la pièce dont on ne se souvient pas si en la quittant on a éteint la lumière, il aurait suffi qu'on soit attentif à ce qu'on faisait pour s'en souvenir. Nous mémorisons ce que nous percevons consciemment. Si nous ne sommes pas là, parce qu'en train de penser à autre chose, nous n'enregistrons ni ce que nous faisons ni ce qui se passe autour de nous (bien que pour sa part le subconscient l'enregistre, ce qui nous permet de le retrouver sous hypnose). Le primatologue qui a conduit l'expérience conclut que "la mémoire à court terme des singes est meilleure que la nôtre", ce qui à mon avis est erroné. La vérité est qu'être plongé dans ses pensées est différent d'être conscient, attentif. Nous pensons, le singe est conscient. Nous échouons au test, il réussit.20-sided-dice a écrit : ↑17 juin 2017, 19:14Comment dire si des êtres humains entraînés ne pourraient-ils pas y arriver aussi ? La mémoire, ça se travaille.
- 20-sided-dice
- Messages : 68
- Inscription : 08 avr. 2017, 17:52
J'avoue avoir du mal à te suivre. J'ai l'impression que tu utilise le mot "conscient" dans deux sens : conscient de soi... et attentif. "le singe est conscient". Sinon, ok cette expérience prouve définitivement que les singes sont plus réactifs que nous, que ce soit parce qu'ils soient plus concentrés ou parce que leurs réflexes sont - littéralement - surhumains.
J'avais mal compris le fait que les singes avaient appris l'ordre des chiffres. D'ailleurs, le fait qu'ils aient pu l'apprendre prouve qu'ils peuvent le sens 1) d'intelligence (peut-être pas à notre échelle, mais quand même).
J'avais mal compris le fait que les singes avaient appris l'ordre des chiffres. D'ailleurs, le fait qu'ils aient pu l'apprendre prouve qu'ils peuvent le sens 1) d'intelligence (peut-être pas à notre échelle, mais quand même).
- Epistème
- Administrateur
- Messages : 135
- Inscription : 08 avr. 2017, 12:00
Ça revient au même, tout cela n'est qu'une question de vocabulaire. On peut également parler de "présence à soi", ou de "présence" tout court. Lorsqu'on est présent à ce qu'on est en train de faire ça signifie qu'on en est conscient, "on sait ce qu'on fait", contrairement aux actes machinaux dans lesquels on n'est absolument pas présent, et qu'on ne mémorise pas, ou mal. Enfin, lorsqu'on est "attentif" on est présent, donc également conscient de ce qu'on fait. Ces différents mots désignent le même état de conscience, lequel signifie qu'on est là et non pas absorbé par nos pensées.20-sided-dice a écrit : ↑18 juin 2017, 19:03J'ai l'impression que tu utilise le mot "conscient" dans deux sens : conscient de soi... et attentif.
C'est vrai, d'ailleurs dans la nature ils sont parmi les seuls animaux à utiliser des outils (quelques oiseaux également), ce qui prouve qu'ils ont une certaine capacité de réflexion.20-sided-dice a écrit : ↑18 juin 2017, 19:03D'ailleurs, le fait qu'ils aient pu l'apprendre prouve qu'ils peuvent le sens 1) d'intelligence (peut-être pas à notre échelle, mais quand même).
Tu vas pouvoir effectuer ce test, car je l'ai programmé à cette adresse !
- 20-sided-dice
- Messages : 68
- Inscription : 08 avr. 2017, 17:52
En effet, c'est impressionnant à quel point les singes arrivent mieux que moi à réaliser ce test (merci pour le lien). Sinon, ok. J'ai compris ce que tu veux dire par être conscient. Pour toi, penser et être conscient sont presque des contraires. Mais alors, les ordinateurs sont conscients il me semble (selon ta définition), ce qui est dérangeant car j'avais l'habitude de dire l'inverse, au sens qu'un PC ne SAIT PAS qu'il existe. Il existe et point. Mais ta définition fait sens. Et tu dis qu'ils seraient incapables de penser, c'est bien ça ?
- Epistème
- Administrateur
- Messages : 135
- Inscription : 08 avr. 2017, 12:00
Je n'ai jamais dit que les ordinateurs étaient conscients, donc nous sommes d'accord, ils ne le sont pas. Par conséquent ils ne sont pas intelligents et ne pourront jamais l'être, et le concept d'intelligence artificielle est une fiction destinée uniquement à vendre, ou à obtenir des subventions en ce qui concerne les centres de recherche. Un peu comme le réchauffement climatique (sauf que là c'est bien réel, malgré que l'activité humaine n'y soit pour rien).20-sided-dice a écrit : ↑19 juin 2017, 18:40Mais alors, les ordinateurs sont conscients il me semble (selon ta définition), ce qui est dérangeant car j'avais l'habitude de dire l'inverse
Oui, ils ne pensent pas, ils exécutent un programme informatique, ce qui est très différent.20-sided-dice a écrit : ↑19 juin 2017, 18:40Et tu dis qu'ils seraient incapables de penser, c'est bien ça ?
Si un ordinateur était conscient il le serait du programme en cours d'exécution, comme nous sommes conscients de nos pensées, et pourrait donc le modifier de sa propre initiative.
Pas tout à fait, non. On peut être conscient et penser, mais il s'agit alors de l'utilisation volontaire de la faculté de penser. Ce qui est dangereux c'est d'être totalement plongé dans nos pensées, parce que non seulement on n'est pas conscient mais que de plus ce sont elles qui nous gouvernent. On pourrait citer le cas des gens qui parlent tout seuls en marchant. Ils sont à ce point absorbés par leurs pensées qu'ils ne sont plus du tout conscients ni d'eux-mêmes ni de leur environnement. S'ils "revenaient soudainement à eux" ils réaliseraient le ridicule de leur situation. Mais il est vrai que de nos jours on ne les différencie plus de ceux qui parlent à leur oreillette bluetooth, les symptômes sont les mêmes !20-sided-dice a écrit : ↑19 juin 2017, 18:40Pour toi, penser et être conscient sont presque des contraires.
PS : j'ai ajouté l'affichage du temps moyen de réflexion dans l'application "test de Kyoto", ce qui permet de le mesurer plus finement, et aussi de le comparer. On peut également l'utiliser pour voir ses progrès au fil du temps.
- 20-sided-dice
- Messages : 68
- Inscription : 08 avr. 2017, 17:52
Je suis d'accord pour dire qu'un ordinateur, en soi, n'est qu'une machine et applique "seulement" le programme.
Mais il me semble que lorsque l'on parle d'IA, on parle plutôt d'un logiciel/programme et pas du PC lui-même. Le terme me semble alors déjà plus approprié, puisque ces programmes font leur job, c'est-à-dire avoir un comportement qui est intelligent (tu remarqueras la nuance entre être intelligent et faire quelque chose d'intelligent).
Les programmeurs actuels ne sachant pas coder un programme qui pense tout seul, leur solution de secours est de directement coder le comportement qu'aurait normalement l'IA si elle pensait d'elle-même.
Sinon merci, je pense vraiment avoir saisi le sens que tu donnais à penser et conscience.
Mais il me semble que lorsque l'on parle d'IA, on parle plutôt d'un logiciel/programme et pas du PC lui-même. Le terme me semble alors déjà plus approprié, puisque ces programmes font leur job, c'est-à-dire avoir un comportement qui est intelligent (tu remarqueras la nuance entre être intelligent et faire quelque chose d'intelligent).
Les programmeurs actuels ne sachant pas coder un programme qui pense tout seul, leur solution de secours est de directement coder le comportement qu'aurait normalement l'IA si elle pensait d'elle-même.
Sinon merci, je pense vraiment avoir saisi le sens que tu donnais à penser et conscience.
- Epistème
- Administrateur
- Messages : 135
- Inscription : 08 avr. 2017, 12:00
Tout à fait, mais les deux sont intimement liés : sans ordinateur pour l'exécuter il n'existerait aucun programme. La recherche sur l'IA considère que l'ordinateur est comme le corps humain, et le programme comme son cerveau, auquel sont associées la pensée, la conscience et l'intelligence. C'est là tout le problème, parce qu'en vérité seule la pensée automatique est produite par le cerveau, et sans une conscience/intelligence indépendante pour l'observer et la comprendre elle serait privée de la moindre utilité. Pendant qu'on dort l'activité cérébrale se poursuit, mais il n'y a aucune conscience (nous ne sommes pas là) pour l'observer. C'est ce qui se passe avec un ordinateur : il n'est pas conscient du programme qu'il exécute ; il est comme un homme plongé dans un coma profond, à la différence qu'il n'a aucune chance d'en sortir. L'affichage qui est réalisé par l'ordinateur des données et résultats du programme en cours d'exécution est semblable au fait d'observer l'activité cérébrale d'un comateux : l'observateur extérieur sait ce qui se passe dans le cerveau de ce malheureux, mais lui-même n'en sait absolument rien.20-sided-dice a écrit : ↑21 juin 2017, 22:03Mais il me semble que lorsque l'on parle d'IA, on parle plutôt d'un logiciel/programme et pas du PC lui-même.
Oui, un ordinateur (ou un robot) ne fait rien d'intelligent, il exécute les ordres qu'il reçoit. Si on lui ordonnait de faire quelque chose de stupide il le ferait sans aucune hésitation. On ne peut donc parler d'intelligence artificielle qu'à partir du moment où on lui ordonne de faire quelque chose qui selon nos critères est intelligent. C'est toute la différence entre les vocables "intelligence artificielle" et "intelligence simulée". Si on utilisait le second il n'y aurait rien à redire, mais le premier pose problème et surtout trompe énormément de gens, y compris les théoriciens et les ingénieurs, qui, en collaboration avec les chercheurs en sciences cognitives, tentent de créer une "machine intelligente", c'est-à-dire capable de penser et d'agir par elle-même, celle dont Turing rêvait.20-sided-dice a écrit : ↑21 juin 2017, 22:03ces programmes font leur job, c'est-à-dire avoir un comportement qui est intelligent (tu remarqueras la nuance entre être intelligent et faire quelque chose d'intelligent).
La problématique se résume à ceci : est-il possible de créer une machine capable de faire autre chose que ce qu'on lui a ordonné de faire, appris à faire ?
- 20-sided-dice
- Messages : 68
- Inscription : 08 avr. 2017, 17:52
Pour répondre à tes deux remarques en même temps. Concernant le fait que le cerveau ne sois pas le siège de la pensée, il y a déjà un topic (je sais il faut que je réponde, mais j'aimerais répondre bien), donc je te propose de ne pas mettre cet argument en jeu.
Ensuite oui, il est possible de coder un programme pour qu'il fasse quelque chose qui n'était pas prévu. Evidemment, si on laisse une certaine marge de liberté, le robot ne la dépassera pas, mais c'est possible. Il suffit de penser aux ordis ayant battu les champions mondiaux d'échecs, de dames, de go... Les programmeurs ont "juste" encodé la manière dont le bot devait analyser la situation.
Sinon, je t'ai déjà parlé de cette prouesse d'avoir codé l'apprentissage.
Enfin, pour aller un peu plus loin, je pense qu'il est possible de coder une vraie IA, puisque l'intelligence provient d'un raisonnement logique. Oserais-tu dire que nous pensons d'une manière non-algorithmique ? Et donc que notre réponse n'est pas prévisible, et n'obéit à aucun mécanisme logique ?
Ensuite oui, il est possible de coder un programme pour qu'il fasse quelque chose qui n'était pas prévu. Evidemment, si on laisse une certaine marge de liberté, le robot ne la dépassera pas, mais c'est possible. Il suffit de penser aux ordis ayant battu les champions mondiaux d'échecs, de dames, de go... Les programmeurs ont "juste" encodé la manière dont le bot devait analyser la situation.
Sinon, je t'ai déjà parlé de cette prouesse d'avoir codé l'apprentissage.
Enfin, pour aller un peu plus loin, je pense qu'il est possible de coder une vraie IA, puisque l'intelligence provient d'un raisonnement logique. Oserais-tu dire que nous pensons d'une manière non-algorithmique ? Et donc que notre réponse n'est pas prévisible, et n'obéit à aucun mécanisme logique ?
- Epistème
- Administrateur
- Messages : 135
- Inscription : 08 avr. 2017, 12:00
Si tu dis à une machine (ordinateur ou robot) "crée la variable tartempion et assigne-lui la valeur 100, (et plus tard), ajoute 12 à tartempion", elle ne comprendra évidemment pas. Alors tu vas utiliser un langage de programmation et écrire par exemple "var tartempion = 100 (et plus tard) tartempion += 12". Mais elle ne comprendra toujours pas ! Les langages de programmation courants, comme le C++, ainsi que les langages de script comme Javascript et Php, sont dits de haut niveau parce qu'ils se rapprochent du langage naturel. Ex : si (condition remplie) {faire ceci} sinon {faire cela}. Un programmeur lit son programme avec pratiquement la même aisance que de la prose. Mais pour la machine ça reste du chinois. Il faut ensuite compiler ce programme ou ce script (un script est plutôt interprété en temps réel), c'est-à-dire le traduire en langage machine (du code binaire pur et simple), pour que le processeur qui équipe la machine puisse le "comprendre", en fait l'exécuter. Mais l'humain ne le comprend alors plus. Un langage de programmation agit donc comme une interface entre l'homme et la machine, et le compilateur (ou l'interpréteur) représente le traducteur. Le langage de programmation de plus bas niveau est celui qui s'approche le plus du langage machine : c'est l'assembleur ; le langage de haut niveau est celui qui s'approche le plus du langage naturel.
Ainsi, les algorithmes les plus sophistiqués sont au final réduits à un ensemble d'instructions codées en binaire, constitué d'une succession plus ou moins longue d'opérations élémentaires telles que +, -, ET, OU, etc. Un microprocesseur, et par voie de conséquence l'ordinateur ou le robot qu'il équipe, n'a nullement besoin d'être intelligent pour exécuter le programme sophistiqué conçu par le programmeur. Les quelques dizaines d'opérations qu'il est capable d'effectuer sont physiquement implémentées via le circuit imprimé et le câblage ; il n'a aucun besoin de comprendre quoi que ce soit, c'est de l'électronique à l'état brut.
L'intelligence que les profanes et les marchands attribuent à l'ordinateur ou au robot est donc bien en réalité celle du programmeur. C'est lui qui conçoit de A à Z ce que la machine exécutera, et ceci quel que soit le degré de complexité de la tâche qu'elle doit accomplir.
Ainsi, les algorithmes les plus sophistiqués sont au final réduits à un ensemble d'instructions codées en binaire, constitué d'une succession plus ou moins longue d'opérations élémentaires telles que +, -, ET, OU, etc. Un microprocesseur, et par voie de conséquence l'ordinateur ou le robot qu'il équipe, n'a nullement besoin d'être intelligent pour exécuter le programme sophistiqué conçu par le programmeur. Les quelques dizaines d'opérations qu'il est capable d'effectuer sont physiquement implémentées via le circuit imprimé et le câblage ; il n'a aucun besoin de comprendre quoi que ce soit, c'est de l'électronique à l'état brut.
L'intelligence que les profanes et les marchands attribuent à l'ordinateur ou au robot est donc bien en réalité celle du programmeur. C'est lui qui conçoit de A à Z ce que la machine exécutera, et ceci quel que soit le degré de complexité de la tâche qu'elle doit accomplir.
La seule chose qui soit possible est d'introduire le hasard (en réalité pseudo-hasard) dans le programme. Dans une situation donnée la machine pourra ainsi faire un choix aléatoire parmi ceux qui lui sont proposés. La marge de liberté qui lui est laissée sera donc intentionnelle et ne relèvera en aucune façon d'une forme quelconque d'intelligence de sa part. Il faut garder à l'esprit qu'aucun programmeur ne laisserait la machine exécuter quoi que ce soit qu'il n'ait pas prévu, car ça conduirait inévitablement à un bug, voire à un plantage. "Le programme a conduit à quelque chose qui n'était pas prévu, résultat d'une situation qui n'avait pas été envisagée", est la définition même du bug. Dans ce cas, le programmeur utilise un débogueur afin de suivre pas à pas ce que fait le programme, dans le but de comprendre pourquoi il conduit à cette situation inattendue. Plus un programme est complexe et plus il y a de chances pour que le programmeur ait à corriger des bugs par la suite (ils sont en général signalés par les utilisateurs), justement parce qu'il n'avait pas pensé à tout.20-sided-dice a écrit : ↑23 juin 2017, 20:58Ensuite oui, il est possible de coder un programme pour qu'il fasse quelque chose qui n'était pas prévu. Evidemment, si on laisse une certaine marge de liberté, le robot ne la dépassera pas, mais c'est possible.
Là où un joueur humain prévoit quelques coups à l'avance et en déduit la stratégie la plus bénéfique pour lui, l'ordinateur peut en prévoir beaucoup plus, ce qui lui assure une certaine supériorité. Contrairement au joueur qui sent intuitivement quel est le meilleur prochain coup, l'ordinateur se base sur un système de points. C'est donc tout simplement en faisant quelques additions qu'il trouve le meilleur prochain coup.20-sided-dice a écrit : ↑23 juin 2017, 20:58Il suffit de penser aux ordis ayant battu les champions mondiaux d'échecs, de dames, de go...
Ce n'est pas l'avis de tout le monde, et en tout cas pas le mien. Personne ne peut nier que le chimpanzé qui efface les neuf chiffres après avoir observé l'écran pendant 65/100ème de seconde est intelligent, pourtant il ne se livre à aucun raisonnement logique. Toujours l'indécrottable confusion entre pensée et conscience/intelligence...20-sided-dice a écrit : ↑23 juin 2017, 20:58je pense qu'il est possible de coder une vraie IA, puisque l'intelligence provient d'un raisonnement logique.
Définition du mot algorithme : "suite finie de règles et d’opérations élémentaires sur un nombre fini de données qui permet de résoudre une classe de problèmes". Tu veux sans doute dire que, non pas la pensée mais le raisonnement met en application des règles définies pour résoudre un problème donné. Certes, mais ce n'est pas de l'intelligence. Quant à la pensée elle-même elle est automatique, chaotique et répétitive, et peu de gens la maîtrisent.20-sided-dice a écrit : ↑23 juin 2017, 20:58Oserais-tu dire que nous pensons d'une manière non-algorithmique ?
La réaction de la pensée résulte d'un conditionnement. Les hindous ne pensent pas de la même manière que nous ou que les lapons, parce que leur culture a induit chez eux un conditionnement différent. De plus, chaque individu au sein d'une même population réagit et pense en fonction de son histoire personnelle, de ses goûts et de ses ambitions. Par exemple, nombre d'Africains mangent du singe, mais pas les Sénégalais, parce que pour eux c'est tabou. Il n'y a rien de logique là-dedans.20-sided-dice a écrit : ↑23 juin 2017, 20:58Et donc que notre réponse n'est pas prévisible, et n'obéit à aucun mécanisme logique ?