-
Epistème
- Administrateur
- Messages : 134
- Inscription : 08 avr. 2017, 12:00
#16
24 juin 2017, 14:43
Dernier message de la page précédente :
Si tu dis à une machine (ordinateur ou robot) "crée la variable
tartempion et assigne-lui la valeur 100, (et plus tard), ajoute 12 à tartempion", elle ne comprendra évidemment pas. Alors tu vas utiliser un langage de programmation et écrire par exemple "var tartempion = 100 (et plus tard) tartempion += 12". Mais elle ne comprendra toujours pas ! Les langages de programmation courants, comme le C++, ainsi que les langages de script comme Javascript et Php, sont dits de haut niveau parce qu'ils se rapprochent du langage naturel. Ex : si (condition remplie) {faire ceci} sinon {faire cela}. Un programmeur lit son programme avec pratiquement la même aisance que de la prose. Mais pour la machine ça reste du chinois. Il faut ensuite compiler ce programme ou ce script (un script est plutôt interprété en temps réel), c'est-à-dire le traduire en langage machine (du code binaire pur et simple), pour que le processeur qui équipe la machine puisse le "comprendre", en fait l'exécuter. Mais l'humain ne le comprend alors plus. Un langage de programmation agit donc comme une interface entre l'homme et la machine, et le compilateur (ou l'interpréteur) représente le traducteur. Le langage de programmation de plus bas niveau est celui qui s'approche le plus du langage machine : c'est l'assembleur ; le langage de haut niveau est celui qui s'approche le plus du langage naturel.
Ainsi, les algorithmes les plus sophistiqués sont au final réduits à un ensemble d'instructions codées en binaire, constitué d'une succession plus ou moins longue d'opérations élémentaires telles que +, -, ET, OU, etc. Un microprocesseur, et par voie de conséquence l'ordinateur ou le robot qu'il équipe, n'a nullement besoin d'être intelligent pour exécuter le programme sophistiqué conçu par le programmeur. Les quelques dizaines d'opérations qu'il est capable d'effectuer sont physiquement implémentées via le circuit imprimé et le câblage ; il n'a aucun besoin de comprendre quoi que ce soit,
c'est de l'électronique à l'état brut.
L'intelligence que les profanes et les marchands attribuent à l'ordinateur ou au robot est donc bien en réalité celle du programmeur. C'est lui qui conçoit de A à Z ce que la machine exécutera, et ceci quel que soit le degré de complexité de la tâche qu'elle doit accomplir.
20-sided-dice a écrit : ↑23 juin 2017, 20:58
Ensuite oui, il est possible de coder un programme pour qu'il fasse quelque chose qui n'était pas prévu. Evidemment, si on laisse une certaine marge de liberté, le robot ne la dépassera pas, mais c'est possible.
La seule chose qui soit possible est d'introduire le hasard (en réalité pseudo-hasard) dans le programme. Dans une situation donnée la machine pourra ainsi faire un choix aléatoire parmi ceux qui lui sont proposés. La marge de liberté qui lui est laissée sera donc intentionnelle et ne relèvera en aucune façon d'une forme quelconque d'intelligence de sa part. Il faut garder à l'esprit qu'aucun programmeur ne laisserait la machine exécuter quoi que ce soit qu'il n'ait pas prévu, car ça conduirait inévitablement à un bug, voire à un plantage. "Le programme a conduit à quelque chose qui n'était pas prévu, résultat d'une situation qui n'avait pas été envisagée", est la définition même du bug. Dans ce cas, le programmeur utilise un débogueur afin de suivre pas à pas ce que fait le programme, dans le but de comprendre pourquoi il conduit à cette situation inattendue. Plus un programme est complexe et plus il y a de chances pour que le programmeur ait à corriger des bugs par la suite (ils sont en général signalés par les utilisateurs), justement parce qu'il n'avait pas pensé à tout.
20-sided-dice a écrit : ↑23 juin 2017, 20:58
Il suffit de penser aux ordis ayant battu les champions mondiaux d'échecs, de dames, de go...
Là où un joueur humain prévoit quelques coups à l'avance et en déduit la stratégie la plus bénéfique pour lui, l'ordinateur peut en prévoir beaucoup plus, ce qui lui assure une certaine supériorité. Contrairement au joueur qui sent intuitivement quel est le meilleur prochain coup, l'ordinateur se base sur un système de points. C'est donc tout simplement en faisant quelques additions qu'il trouve le meilleur prochain coup.
20-sided-dice a écrit : ↑23 juin 2017, 20:58
je pense qu'il est possible de coder une vraie IA, puisque l'intelligence provient d'un raisonnement logique.
Ce n'est pas l'avis de tout le monde, et en tout cas pas le mien. Personne ne peut nier que le chimpanzé qui efface les neuf chiffres après avoir observé l'écran pendant 65/100ème de seconde est intelligent, pourtant il ne se livre à aucun raisonnement logique. Toujours l'indécrottable confusion entre pensée et conscience/intelligence...
20-sided-dice a écrit : ↑23 juin 2017, 20:58
Oserais-tu dire que nous pensons d'une manière non-algorithmique ?
Définition du mot algorithme : "suite finie de règles et d’opérations élémentaires sur un nombre fini de données qui permet de résoudre une classe de problèmes". Tu veux sans doute dire que, non pas la pensée mais le raisonnement met en application des règles définies pour résoudre un problème donné. Certes, mais ce n'est pas de l'intelligence. Quant à la pensée elle-même elle est automatique, chaotique et répétitive, et peu de gens la maîtrisent.
20-sided-dice a écrit : ↑23 juin 2017, 20:58
Et donc que notre réponse n'est pas prévisible, et n'obéit à aucun mécanisme logique ?
La réaction de la pensée résulte d'un conditionnement. Les hindous ne pensent pas de la même manière que nous ou que les lapons, parce que leur culture a induit chez eux un conditionnement différent. De plus, chaque individu au sein d'une même population réagit et pense en fonction de son histoire personnelle, de ses goûts et de ses ambitions. Par exemple, nombre d'Africains mangent du singe, mais pas les Sénégalais, parce que pour eux c'est tabou. Il n'y a rien de logique là-dedans.
1498308203
Epistème
Si tu dis à une machine (ordinateur ou robot) "crée la variable [i]tartempion[/i] et assigne-lui la valeur 100, (et plus tard), ajoute 12 à tartempion", elle ne comprendra évidemment pas. Alors tu vas utiliser un langage de programmation et écrire par exemple "var tartempion = 100 (et plus tard) tartempion += 12". Mais elle ne comprendra toujours pas ! Les langages de programmation courants, comme le C++, ainsi que les langages de script comme Javascript et Php, sont dits de haut niveau parce qu'ils se rapprochent du langage naturel. Ex : si (condition remplie) {faire ceci} sinon {faire cela}. Un programmeur lit son programme avec pratiquement la même aisance que de la prose. Mais pour la machine ça reste du chinois. Il faut ensuite compiler ce programme ou ce script (un script est plutôt interprété en temps réel), c'est-à-dire le traduire en langage machine (du code binaire pur et simple), pour que le processeur qui équipe la machine puisse le "comprendre", en fait l'exécuter. Mais l'humain ne le comprend alors plus. Un langage de programmation agit donc comme une interface entre l'homme et la machine, et le compilateur (ou l'interpréteur) représente le traducteur. Le langage de programmation de plus bas niveau est celui qui s'approche le plus du langage machine : c'est l'assembleur ; le langage de haut niveau est celui qui s'approche le plus du langage naturel.
Ainsi, les algorithmes les plus sophistiqués sont au final réduits à un ensemble d'instructions codées en binaire, constitué d'une succession plus ou moins longue d'opérations élémentaires telles que +, -, ET, OU, etc. Un microprocesseur, et par voie de conséquence l'ordinateur ou le robot qu'il équipe, n'a nullement besoin d'être intelligent pour exécuter le programme sophistiqué conçu par le programmeur. Les quelques dizaines d'opérations qu'il est capable d'effectuer sont physiquement implémentées via le circuit imprimé et le câblage ; il n'a aucun besoin de comprendre quoi que ce soit, [b]c'est de l'électronique à l'état brut[/b].
L'intelligence que les profanes et les marchands attribuent à l'ordinateur ou au robot est donc bien en réalité celle du programmeur. C'est lui qui conçoit de A à Z ce que la machine exécutera, et ceci quel que soit le degré de complexité de la tâche qu'elle doit accomplir.
[quote=20-sided-dice post_id=35 time=1498244300 user_id=48]Ensuite oui, il est possible de coder un programme pour qu'il fasse quelque chose qui n'était pas prévu. Evidemment, si on laisse une certaine marge de liberté, le robot ne la dépassera pas, mais c'est possible.[/quote]
La seule chose qui soit possible est d'introduire le hasard (en réalité pseudo-hasard) dans le programme. Dans une situation donnée la machine pourra ainsi faire un choix aléatoire parmi ceux qui lui sont proposés. La marge de liberté qui lui est laissée sera donc intentionnelle et ne relèvera en aucune façon d'une forme quelconque d'intelligence de sa part. Il faut garder à l'esprit qu'aucun programmeur ne laisserait la machine exécuter quoi que ce soit qu'il n'ait pas prévu, car ça conduirait inévitablement à un bug, voire à un plantage. "Le programme a conduit à quelque chose qui n'était pas prévu, résultat d'une situation qui n'avait pas été envisagée", est la définition même du bug. Dans ce cas, le programmeur utilise un débogueur afin de suivre pas à pas ce que fait le programme, dans le but de comprendre pourquoi il conduit à cette situation inattendue. Plus un programme est complexe et plus il y a de chances pour que le programmeur ait à corriger des bugs par la suite (ils sont en général signalés par les utilisateurs), justement parce qu'il n'avait pas pensé à tout.
[quote=20-sided-dice post_id=35 time=1498244300 user_id=48]Il suffit de penser aux ordis ayant battu les champions mondiaux d'échecs, de dames, de go...[/quote]
Là où un joueur humain prévoit quelques coups à l'avance et en déduit la stratégie la plus bénéfique pour lui, l'ordinateur peut en prévoir beaucoup plus, ce qui lui assure une certaine supériorité. Contrairement au joueur qui sent intuitivement quel est le meilleur prochain coup, l'ordinateur se base sur un système de points. C'est donc tout simplement en faisant quelques additions qu'il trouve le meilleur prochain coup.
[quote=20-sided-dice post_id=35 time=1498244300 user_id=48]je pense qu'il est possible de coder une vraie IA, puisque l'intelligence provient d'un raisonnement logique.[/quote]
Ce n'est pas l'avis de tout le monde, et en tout cas pas le mien. Personne ne peut nier que le chimpanzé qui efface les neuf chiffres après avoir observé l'écran pendant 65/100ème de seconde est intelligent, pourtant il ne se livre à aucun raisonnement logique. Toujours l'indécrottable confusion entre pensée et conscience/intelligence...
[quote=20-sided-dice post_id=35 time=1498244300 user_id=48]Oserais-tu dire que nous pensons d'une manière non-algorithmique ?[/quote]
Définition du mot algorithme : "suite finie de règles et d’opérations élémentaires sur un nombre fini de données qui permet de résoudre une classe de problèmes". Tu veux sans doute dire que, non pas la pensée mais le raisonnement met en application des règles définies pour résoudre un problème donné. Certes, mais ce n'est pas de l'intelligence. Quant à la pensée elle-même elle est automatique, chaotique et répétitive, et peu de gens la maîtrisent.
[quote=20-sided-dice post_id=35 time=1498244300 user_id=48]Et donc que notre réponse n'est pas prévisible, et n'obéit à aucun mécanisme logique ?[/quote]
La réaction de la pensée résulte d'un conditionnement. Les hindous ne pensent pas de la même manière que nous ou que les lapons, parce que leur culture a induit chez eux un conditionnement différent. De plus, chaque individu au sein d'une même population réagit et pense en fonction de son histoire personnelle, de ses goûts et de ses ambitions. Par exemple, nombre d'Africains mangent du singe, mais pas les Sénégalais, parce que pour eux c'est tabou. Il n'y a rien de logique là-dedans.
-
20-sided-dice
- Messages : 68
- Inscription : 08 avr. 2017, 17:52
#17
25 juin 2017, 17:26
Je vais procéder par paragraphe pour te répondre.
Tout d'abord... oui je suis d'accord, un robot (en lui-même) n'est pas intelligent/conscient. Pour que ce soit clair. Ce que je dis, c'est que le programme du robot pourrait, lui, se révéler intelligent (ouf). Pour prendre un exemple plus simple, en SUPPOSANT que le cerveau soit le siège de la pensée/conscience (je sais que c'est hors-sujet mais tu vas comprendre où je veux en venir), je pense que tu es d'accord pour dire que l'amas de cellule que représente cet organe N'EST PAS intelligent. C'est éventuellement la manière par laquelle les neurones sont cablés et codés qui va permettre à cet organe de fournir des réponses intelligentes à telle ou telle situation.
Je maintiens que les programmes ayant battu les plus grands champions d'échecs sont un très bon exemple du fait qu'un programme peut sortir des réponses imprévues grâce à un programme intelligent, auquel on aura laissé une marge de manœuvre. En effet, les programmes codés "ne font que des additions" pour comparer l'intérêt de jouer tel ou tel coup à l'avance. Mais au final, un champion fait la même chose. Il va peser le pour et le contre de sa position. Et il va comparer les situations potentiels de la même façon que le programme.
Je maintiens ce que je dis. En l'occurrence le singe est intelligent et applique un raisonnement logique (même s'il ne s'en rend pas compte, et nous non plus) : réception de la perception visuelle, construction de l'image en relief, analyse de l'image pour identification des objets (notamment à l'aide de la mémoire), tri de l'information, passage de la suite de chiffres et leur position respective dans la boucle phonologique (mémoire), *arrêt de l'affichage des chiffres*, perception visuelle etc, planification de la réponse, création du message moteur, réponse (=il appuie sur les bonnes positions).
Vive la neurologie ! En l'occurrence ces mécanismes ont été bien identifiés. J'ai certainement dit des bêtises dans le tas, mais tu avoueras que c'est un raisonnement logique. Et je n'ai pas besoin de supposer que le cerveau est le siège de la conscience, mais uniquement le siège de ces mécanismes. Si tu n'es pas d'accord, indique le moi, ne te gène pas.
Enfin, je confirme que je voulais dire que la pensée est algorithmique. Et le raisonnement par extension. Eh oui, je pense qu'en ayant TOUTES les informations génétiques et environnementales passées et présentes sur une personne, il serait dans l'absolu possible de prévoir sa réponse à n'importe quelle situation. Après tout, un comportement est logique. Si on t'apprend que si tu vis bien tu vas de réincarner dans une forme de vie cool, alors tu vas faire en sorte d'avoir cette récompense (idem paradis chrétien, etc). En gros.
1498404408
20-sided-dice
Je vais procéder par paragraphe pour te répondre.
Tout d'abord... oui je suis d'accord, un robot (en lui-même) n'est pas intelligent/conscient. Pour que ce soit clair. Ce que je dis, c'est que le programme du robot pourrait, lui, se révéler intelligent (ouf). Pour prendre un exemple plus simple, en SUPPOSANT que le cerveau soit le siège de la pensée/conscience (je sais que c'est hors-sujet mais tu vas comprendre où je veux en venir), je pense que tu es d'accord pour dire que l'amas de cellule que représente cet organe N'EST PAS intelligent. C'est éventuellement la manière par laquelle les neurones sont cablés et codés qui va permettre à cet organe de fournir des réponses intelligentes à telle ou telle situation.
Je maintiens que les programmes ayant battu les plus grands champions d'échecs sont un très bon exemple du fait qu'un programme peut sortir des réponses imprévues grâce à un programme intelligent, auquel on aura laissé une marge de manœuvre. En effet, les programmes codés "ne font que des additions" pour comparer l'intérêt de jouer tel ou tel coup à l'avance. Mais au final, un champion fait la même chose. Il va peser le pour et le contre de sa position. Et il va comparer les situations potentiels de la même façon que le programme.
Je maintiens ce que je dis. En l'occurrence le singe est intelligent et applique un raisonnement logique (même s'il ne s'en rend pas compte, et nous non plus) : réception de la perception visuelle, construction de l'image en relief, analyse de l'image pour identification des objets (notamment à l'aide de la mémoire), tri de l'information, passage de la suite de chiffres et leur position respective dans la boucle phonologique (mémoire), *arrêt de l'affichage des chiffres*, perception visuelle etc, planification de la réponse, création du message moteur, réponse (=il appuie sur les bonnes positions).
Vive la neurologie ! En l'occurrence ces mécanismes ont été bien identifiés. J'ai certainement dit des bêtises dans le tas, mais tu avoueras que c'est un raisonnement logique. Et je n'ai pas besoin de supposer que le cerveau est le siège de la conscience, mais uniquement le siège de ces mécanismes. Si tu n'es pas d'accord, indique le moi, ne te gène pas.
Enfin, je confirme que je voulais dire que la pensée est algorithmique. Et le raisonnement par extension. Eh oui, je pense qu'en ayant TOUTES les informations génétiques et environnementales passées et présentes sur une personne, il serait dans l'absolu possible de prévoir sa réponse à n'importe quelle situation. Après tout, un comportement est logique. Si on t'apprend que si tu vis bien tu vas de réincarner dans une forme de vie cool, alors tu vas faire en sorte d'avoir cette récompense (idem paradis chrétien, etc). En gros.
-
Epistème
- Administrateur
- Messages : 134
- Inscription : 08 avr. 2017, 12:00
#18
26 juin 2017, 14:02
20-sided-dice a écrit : ↑25 juin 2017, 17:26
oui je suis d'accord, un robot (en lui-même) n'est pas intelligent/conscient. Ce que je dis, c'est que le programme du robot pourrait, lui, se révéler intelligent.
Comme je l'expliquais dans mon précédent post, le microprocesseur agit de manière purement mécanique. Il traite les instructions qu'il reçoit (le programme converti en langage machine) selon une méthodologie établie par le fondeur (Intel ou autre). Un métier à tisser Jacquard agit de la même manière, à ceci près que le programme qu'il exécute est codé sur une carte perforée, technique d'ailleurs utilisée dans les premiers ordinateurs. Les seules choses qui peuvent être qualifiées d'intelligentes sont la manière dont le programme a été conçu et ce qu'il fait faire au robot. Dans ce sens, l'intelligence artificielle n'a strictement rien d'artificiel, puisqu'elle reflète celle du programmeur. Et c'est justement lorsqu'on oublie le rôle du programmeur que la chimère de l'intelligence artificielle peut apparaître et tromper tant de gens, parce qu'elle est alors présentée comme une intelligence créée de toutes pièces et indépendante de l'homme, ce qui est une escroquerie. C'est du moins ainsi que l'on qualifierait toute tentative de faire croire qu'une toile s'est peinte toute seule. Or, l'ordinateur est au programmeur ce que la toile est au peintre.
20-sided-dice a écrit : ↑25 juin 2017, 17:26
Pour prendre un exemple plus simple, en SUPPOSANT que le cerveau soit le siège de la pensée/conscience (je sais que c'est hors-sujet mais tu vas comprendre où je veux en venir), je pense que tu es d'accord pour dire que l'amas de cellule que représente cet organe N'EST PAS intelligent. C'est éventuellement la manière par laquelle les neurones sont cablés et codés qui va permettre à cet organe de fournir des réponses intelligentes à telle ou telle situation.
Comment peux-tu faire le parallèle entre un processus mécanique (ou électronique, mais fondamentalement ça ne fait aucune différence) et la faculté de penser, de raisonner intelligemment ? Tu passes environ le tiers de tes journées dans l'état de sommeil profond, est-ce que dans ces moments tu es conscient de tes pensées ? Non, pourtant l' "amas de cellules" est toujours actif. Qu'est-ce qui te manque pour être conscient de cette activité ? La conscience, justement. Quand tu dors tu n'es rien, ni toi ni le monde n'existez. C'est l'état dans lequel la puce électronique se trouve plongée en permanence : elle n'est pas consciente de sa propre existence ni de l'activité dont elle est le siège, et ne peut l'être en aucun cas. Le programme qu'elle exécute n'a donc rien en commun, ni de près ni de loin, avec la pensée.
20-sided-dice a écrit : ↑25 juin 2017, 17:26
les programmes codés "ne font que des additions" pour comparer l'intérêt de jouer tel ou tel coup à l'avance. Mais au final, un champion fait la même chose. Il va peser le pour et le contre de sa position. Et il va comparer les situations potentiels de la même façon que le programme.
Un joueur d'échecs n'aurait pas le temps, ni sans doute les capacités en termes de calcul mental, d'additionner les points que pourrait lui rapporter tel ou tel coup, surtout qu'il doit en prévoir plusieurs à l'avance. Il est plus adéquat dans son cas de parler de flair, d'habileté, d'intuition, et surtout d'expérience. En résumé, tout ce qui fait défaut à des circuits électroniques, d'où la nécessité d'utiliser un système de points, qui rentre parfaitement dans leurs cordes puisqu'ils sont capables de faire des millions d'additions par seconde. L'ordinateur n'a aucune perception du jeu, il ne sait même pas ce qu'est un échiquier. Ce n'est pas lui qui joue aux échecs mais les algorithmes. Mieux ils sont conçus et mieux la machine joue.
20-sided-dice a écrit : ↑25 juin 2017, 17:26
le singe est intelligent et applique un raisonnement logique (même s'il ne s'en rend pas compte, et nous non plus)
La logique est un concept humain, elle a pris forme au fil des âges et est liée à la pensée, au raisonnement. Pour que le chimpanzé de la vidéo fasse preuve de logique il faudrait donc qu'il soit doué de pensée, ce qui est hautement improbable puisqu'il ne dispose d'aucun langage. En réalité, durant les 65/100èmes de seconde qu'il passe à observer la répartition des chiffres il en crée mentalement une photo. Notre approche est très différente : nous essayons de mémoriser la position des chiffres dans leur ordre naturel, ce qui nous empêche d'en former une image globale.
Je pense d'ailleurs que si on remplaçait les chiffres par des fruits le chimpanzé parviendrait au même résultat, parce que pour lui ce sont autant de symboles. Plutôt que de lui apprendre 1, 2, 3, ... on aurait pu aussi bien lui apprendre banane, poire, pomme, ... Les chiffres n'ont pas la même signification pour lui que pour nous.
1498478552
Epistème
[quote=20-sided-dice post_id=37 time=1498404408 user_id=48]oui je suis d'accord, un robot (en lui-même) n'est pas intelligent/conscient. Ce que je dis, c'est que le programme du robot pourrait, lui, se révéler intelligent.[/quote]
Comme je l'expliquais dans mon précédent post, le microprocesseur agit de manière purement mécanique. Il traite les instructions qu'il reçoit (le programme converti en langage machine) selon une méthodologie établie par le fondeur (Intel ou autre). Un métier à tisser Jacquard agit de la même manière, à ceci près que le programme qu'il exécute est codé sur une carte perforée, technique d'ailleurs utilisée dans les premiers ordinateurs. Les seules choses qui peuvent être qualifiées d'intelligentes sont la manière dont le programme a été conçu et ce qu'il fait faire au robot. Dans ce sens, l'intelligence artificielle n'a strictement rien d'artificiel, puisqu'elle reflète celle du programmeur. Et c'est justement lorsqu'on oublie le rôle du programmeur que la chimère de l'intelligence artificielle peut apparaître et tromper tant de gens, parce qu'elle est alors présentée comme une intelligence créée de toutes pièces et indépendante de l'homme, ce qui est une escroquerie. C'est du moins ainsi que l'on qualifierait toute tentative de faire croire qu'une toile s'est peinte toute seule. Or, l'ordinateur est au programmeur ce que la toile est au peintre.
[quote=20-sided-dice post_id=37 time=1498404408 user_id=48]Pour prendre un exemple plus simple, en SUPPOSANT que le cerveau soit le siège de la pensée/conscience (je sais que c'est hors-sujet mais tu vas comprendre où je veux en venir), je pense que tu es d'accord pour dire que l'amas de cellule que représente cet organe N'EST PAS intelligent. C'est éventuellement la manière par laquelle les neurones sont cablés et codés qui va permettre à cet organe de fournir des réponses intelligentes à telle ou telle situation.[/quote]
Comment peux-tu faire le parallèle entre un processus mécanique (ou électronique, mais fondamentalement ça ne fait aucune différence) et la faculté de penser, de raisonner intelligemment ? Tu passes environ le tiers de tes journées dans l'état de sommeil profond, est-ce que dans ces moments tu es conscient de tes pensées ? Non, pourtant l' "amas de cellules" est toujours actif. Qu'est-ce qui te manque pour être conscient de cette activité ? La conscience, justement. Quand tu dors tu n'es rien, ni toi ni le monde n'existez. C'est l'état dans lequel la puce électronique se trouve plongée en permanence : elle n'est pas consciente de sa propre existence ni de l'activité dont elle est le siège, et ne peut l'être en aucun cas. Le programme qu'elle exécute n'a donc rien en commun, ni de près ni de loin, avec la pensée.
[quote=20-sided-dice post_id=37 time=1498404408 user_id=48]les programmes codés "ne font que des additions" pour comparer l'intérêt de jouer tel ou tel coup à l'avance. Mais au final, un champion fait la même chose. Il va peser le pour et le contre de sa position. Et il va comparer les situations potentiels de la même façon que le programme.[/quote]
Un joueur d'échecs n'aurait pas le temps, ni sans doute les capacités en termes de calcul mental, d'additionner les points que pourrait lui rapporter tel ou tel coup, surtout qu'il doit en prévoir plusieurs à l'avance. Il est plus adéquat dans son cas de parler de flair, d'habileté, d'intuition, et surtout d'expérience. En résumé, tout ce qui fait défaut à des circuits électroniques, d'où la nécessité d'utiliser un système de points, qui rentre parfaitement dans leurs cordes puisqu'ils sont capables de faire des millions d'additions par seconde. L'ordinateur n'a aucune perception du jeu, il ne sait même pas ce qu'est un échiquier. Ce n'est pas lui qui joue aux échecs mais les algorithmes. Mieux ils sont conçus et mieux la machine joue.
[quote=20-sided-dice post_id=37 time=1498404408 user_id=48]le singe est intelligent et applique un raisonnement logique (même s'il ne s'en rend pas compte, et nous non plus)[/quote]
La logique est un concept humain, elle a pris forme au fil des âges et est liée à la pensée, au raisonnement. Pour que le chimpanzé de la vidéo fasse preuve de logique il faudrait donc qu'il soit doué de pensée, ce qui est hautement improbable puisqu'il ne dispose d'aucun langage. En réalité, durant les 65/100èmes de seconde qu'il passe à observer la répartition des chiffres il en crée mentalement une photo. Notre approche est très différente : nous essayons de mémoriser la position des chiffres dans leur ordre naturel, ce qui nous empêche d'en former une image globale.
Je pense d'ailleurs que si on remplaçait les chiffres par des fruits le chimpanzé parviendrait au même résultat, parce que pour lui ce sont autant de symboles. Plutôt que de lui apprendre 1, 2, 3, ... on aurait pu aussi bien lui apprendre banane, poire, pomme, ... Les chiffres n'ont pas la même signification pour lui que pour nous.
-
20-sided-dice
- Messages : 68
- Inscription : 08 avr. 2017, 17:52
#19
30 juin 2017, 20:10
Je crois que tu as compris mon point de vue : je ne considère pas impossible l'émergence d'une intelligence à partir d'un simple processus/algorithme mécanique, électrique, ou électrochimique en ce qui concerne le cerveau (je ne fais ici qu'affirmer ma position).
Ce que je veux te dire, c'est que même si un joueur d'échec n'en a pas conscience, il exécute les mêmes procédés de calcul qu'un programme. Il a juste moins de capacité de calcul disponible pour cette tâche ; il simule telle ou telle action, prédit les coups de son adversaire, en déduit les avantages et inconvénients de sa potentielle position sur le jeu. Un ordinateur fera la même chose (ou l'algorithme exécuté par l'ordinateur si tu préfères).
Enfin, je considère que la logique n'est ni un concept humain, mais qu'elle est liée à un raisonnement. Même si le singe ne se rend pas compte de son raisonnement.
1498846246
20-sided-dice
Je crois que tu as compris mon point de vue : je ne considère pas impossible l'émergence d'une intelligence à partir d'un simple processus/algorithme mécanique, électrique, ou électrochimique en ce qui concerne le cerveau (je ne fais ici qu'affirmer ma position).
Ce que je veux te dire, c'est que même si un joueur d'échec n'en a pas conscience, il exécute les mêmes procédés de calcul qu'un programme. Il a juste moins de capacité de calcul disponible pour cette tâche ; il simule telle ou telle action, prédit les coups de son adversaire, en déduit les avantages et inconvénients de sa potentielle position sur le jeu. Un ordinateur fera la même chose (ou l'algorithme exécuté par l'ordinateur si tu préfères).
Enfin, je considère que la logique n'est ni un concept humain, mais qu'elle est liée à un raisonnement. Même si le singe ne se rend pas compte de son raisonnement.
-
Epistème
- Administrateur
- Messages : 134
- Inscription : 08 avr. 2017, 12:00
#20
13 juil. 2017, 13:06
J'ai beaucoup aimé ce que disait un journaliste scientifique allemand dans une vidéo Youtube qui malheureusement n'existe plus :
ce journaliste a écrit :[Les robots capables d'empathie] représentent un progrès impressionnant, et même fascinant. Mais ces machines n'éprouvent pas une véritable empathie. Un être humain en est capable parce qu'il a déjà ressenti telle ou telle émotion, il sait ce qu'est la tristesse, la peur, la colère. Une machine non ; elle n'éprouve pas de tristesse, elle ne se préoccupe pas de son sort comme le fait un être humain, elle ne fait que simuler de l'empathie. Si nous ne savons plus distinguer ça de l'empathie véritable, alors nous risquons de devenir nous-mêmes des machines.
La dernière phrase est la plus importante. Elle correspond bien à une civilisation qui prend l'artificiel pour l'authentique.
1499943969
Epistème
J'ai beaucoup aimé ce que disait un journaliste scientifique allemand dans une vidéo Youtube qui malheureusement n'existe plus :
[quote="ce journaliste"][Les robots capables d'empathie] représentent un progrès impressionnant, et même fascinant. Mais ces machines n'éprouvent pas une véritable empathie. Un être humain en est capable parce qu'il a déjà ressenti telle ou telle émotion, il sait ce qu'est la tristesse, la peur, la colère. Une machine non ; elle n'éprouve pas de tristesse, elle ne se préoccupe pas de son sort comme le fait un être humain, elle ne fait que simuler de l'empathie. Si nous ne savons plus distinguer ça de l'empathie véritable, alors nous risquons de devenir nous-mêmes des machines.[/quote]
La dernière phrase est la plus importante. Elle correspond bien à une civilisation qui prend l'artificiel pour l'authentique.
-
20-sided-dice
- Messages : 68
- Inscription : 08 avr. 2017, 17:52
#21
13 juil. 2017, 13:28
L'être humain n'ayant pas conscience non plus de tous ces gestes qu'il exécute exprimant ses émotions (sourires, posture, expression du visage, direction du regard ........), peut-on vraiment dire que l'humain (contrairement à une machine selon ton point de vue) ressent consciemment ses émotions ?
La façon dont nous les exprimons ressemble quand même beaucoup à des automatismes. Après tout, on dit bien que les émotions sont incontrôlables.
1499945307
20-sided-dice
L'être humain n'ayant pas conscience non plus de tous ces gestes qu'il exécute exprimant ses émotions (sourires, posture, expression du visage, direction du regard ........), peut-on vraiment dire que l'humain (contrairement à une machine selon ton point de vue) ressent consciemment ses émotions ?
La façon dont nous les exprimons ressemble quand même beaucoup à des automatismes. Après tout, on dit bien que les émotions sont incontrôlables.
-
Epistème
- Administrateur
- Messages : 134
- Inscription : 08 avr. 2017, 12:00
#22
13 juil. 2017, 13:40
20-sided-dice a écrit : ↑13 juil. 2017, 13:28
peut-on vraiment dire que l'humain (contrairement à une machine selon ton point de vue) ressent consciemment ses émotions ?
Il sait parfaitement dans quel état émotionnel il se trouve. Un état émotionnel est vécu à l'intérieur et exprimé à l'extérieur. Si la personne n'est pas consciente de ce qu'elle renvoie, elle sait au moins ce qu'elle éprouve, sinon elle ne serait qu'une machine.
1499946053
Epistème
[quote=20-sided-dice post_id=41 time=1499945307 user_id=48]peut-on vraiment dire que l'humain (contrairement à une machine selon ton point de vue) ressent consciemment ses émotions ?[/quote]
Il sait parfaitement dans quel état émotionnel il se trouve. Un état émotionnel est vécu à l'intérieur et exprimé à l'extérieur. Si la personne n'est pas consciente de ce qu'elle renvoie, elle sait au moins ce qu'elle éprouve, sinon elle ne serait qu'une machine.
-
20-sided-dice
- Messages : 68
- Inscription : 08 avr. 2017, 17:52
#23
13 juil. 2017, 19:00
Je t'accorde le fait que nos machines actuelles ne sont pas suffisamment programmées pour avoir conscience de ce qu'elles expriment. Mais bon, en même temps ce n'est pas ce qu'on demande à un robot. On veut juste qu'il exprime de l'empathie et pose les bonnes questions.
1499965240
20-sided-dice
Je t'accorde le fait que nos machines actuelles ne sont pas suffisamment programmées pour avoir conscience de ce qu'elles expriment. Mais bon, en même temps ce n'est pas ce qu'on demande à un robot. On veut juste qu'il exprime de l'empathie et pose les bonnes questions.
-
Epistème
- Administrateur
- Messages : 134
- Inscription : 08 avr. 2017, 12:00
#24
14 juil. 2017, 13:43
20-sided-dice a écrit : ↑13 juil. 2017, 19:00
Je t'accorde le fait que nos machines actuelles ne sont pas suffisamment programmées pour avoir conscience de ce qu'elles expriment.
Elles ne le seront jamais.
20-sided-dice a écrit : ↑13 juil. 2017, 19:00
On veut juste qu'il exprime de l'empathie et pose les bonnes questions.
On veut juste qu'il
simule l'empathie.
1500032616
Epistème
[quote=20-sided-dice post_id=43 time=1499965240 user_id=48]Je t'accorde le fait que nos machines actuelles ne sont pas suffisamment programmées pour avoir conscience de ce qu'elles expriment.[/quote]
Elles ne le seront jamais.
[quote=20-sided-dice post_id=43 time=1499965240 user_id=48]On veut juste qu'il exprime de l'empathie et pose les bonnes questions.[/quote]
On veut juste qu'il [i]simule[/i] l'empathie.
-
20-sided-dice
- Messages : 68
- Inscription : 08 avr. 2017, 17:52
#25
14 juil. 2017, 19:38
Epistème a écrit : ↑14 juil. 2017, 13:43
Elles ne le seront jamais.
Ah enfin les vraies sujets intéressants
Eh bien pour commencer, j'aimerais casser cette idée reçue que l'impossibilité de reproduire (dans le sens premier de reproduire, c'est-à-dire dans le sens de la recréer) l'humanité (ce qui fait de nous des hommes), soit les sentiments humains. Savais-tu que lorsque nous sommes amoureux, la zone du cerveau gérant les sentiments est moins active ?
Après tout, c'est pour cela qu'on serait près à tout pour notre bien-aimé(e). Sans la peur et le dégoût, qu'est-ce qui peut nous arrêter ? La raison ? Quelle blague. Bref, ce petit exemple a pour but de te montrer que la pensée de l'être humain est bien plus malléable qu'on aimerait le croire. Et qui dit malléable dit mécanismes "simples" (cela reste une machine diablement complexe), et donc reproductible.
Epistème a écrit : ↑14 juil. 2017, 13:43
On veut juste qu'il simule l'empathie.
C'est ce que je voulais dire. J'ai utilisé le terme exprimer pour te faire comprendre que l'objectif était que NOUS (êtres humains) percevions le fait que l'IA a de l'empathie. C'est à cela que sert l'EXPRESSION des sentiments : faire comprendre aux autres ce que l'on ressent.
Mais en l’occurrence, cette IA ne ressent rien, elle ne fait qu'exprimer de l'empathie (la simuler si tu préfères). Le fait que le mot simuler ou exprimer soit le plus pertinent peut se discuter, mais ce sont des détails.
1500053894
20-sided-dice
[quote=Epistème post_id=44 time=1500032616 user_id=2]Elles ne le seront jamais.[/quote]
Ah enfin les vraies sujets intéressants :twisted:
Eh bien pour commencer, j'aimerais casser cette idée reçue que l'impossibilité de reproduire (dans le sens premier de reproduire, c'est-à-dire dans le sens de la recréer) l'humanité (ce qui fait de nous des hommes), soit les sentiments humains. Savais-tu que lorsque nous sommes amoureux, la zone du cerveau gérant les sentiments est moins active ?
Après tout, c'est pour cela qu'on serait près à tout pour notre bien-aimé(e). Sans la peur et le dégoût, qu'est-ce qui peut nous arrêter ? La raison ? Quelle blague. Bref, ce petit exemple a pour but de te montrer que la pensée de l'être humain est bien plus malléable qu'on aimerait le croire. Et qui dit malléable dit mécanismes "simples" (cela reste une machine diablement complexe), et donc reproductible.
[quote=Epistème post_id=44 time=1500032616 user_id=2]On veut juste qu'il simule l'empathie.[/quote]
C'est ce que je voulais dire. J'ai utilisé le terme exprimer pour te faire comprendre que l'objectif était que NOUS (êtres humains) percevions le fait que l'IA a de l'empathie. C'est à cela que sert l'EXPRESSION des sentiments : faire comprendre aux autres ce que l'on ressent.
Mais en l’occurrence, cette IA ne ressent rien, elle ne fait qu'exprimer de l'empathie (la simuler si tu préfères). Le fait que le mot simuler ou exprimer soit le plus pertinent peut se discuter, mais ce sont des détails.
-
Epistème
- Administrateur
- Messages : 134
- Inscription : 08 avr. 2017, 12:00
#26
15 juil. 2017, 14:26
20-sided-dice a écrit : ↑14 juil. 2017, 19:38
Savais-tu que lorsque nous sommes amoureux, la zone du cerveau gérant les sentiments est moins active ?
C'est censé démontrer quoi ?
20-sided-dice a écrit : ↑14 juil. 2017, 19:38
Eh bien pour commencer, j'aimerais casser cette idée reçue que l'impossibilité de reproduire (dans le sens de la recréer) l'humanité
Voilà un
article qui va dans ton sens : il traite de la théorie de la conscience en tant que système d'informations. Il est dit qu'un smartphone pourrait être conscient, ainsi qu'Internet lui-même. C'est ce qu'on appelle la TII, Théorie de l'Information Intégrée. L'un de ses deux inventeurs, le neuroscientifique Christof Koch, fait cependant le parallèle avec le panpsychisme, doctrine selon laquelle toute matière a un aspect mental, ce qui ferait de la conscience un phénomène universel. Il écrit : "
L'intégralité du cosmos regorge de conscience. Nous sommes entourés, immergés dans la conscience. Elle est dans l'air que nous respirons, le sol que nous foulons, les bactéries qui colonisent nos intestins, et le cerveau qui nous permet de penser."
C'est quand même assez déconcertant. Il affirme fournir "
une manière précise de mesurer la conscience et d'exprimer ce phénomène en termes purement mathématiques", prétend que "
tout système capable d'intégrer des informations, qu'il soit fait de carbone ou bien composé de puces en silicium et de fils métalliques, devrait produire des états de conscience", tout en proposant une nouvelle forme de spiritualité. Je cite le dernier paragraphe de l'article :
Jusqu'à présent, la TII est le meilleur exemple d'une doctrine scientifique se proposant d'offrir une description objective de la conscience. À ce titre, ses idées apparemment radicales méritent notre considération. Réfléchir à des questions que l'on pensait auparavant réservées aux fumeurs de pétards est à présent la tâche des plus brillants esprits scientifiques. La plupart des penseurs rationnels tombent d'accord sur l'absurdité du concept de dieu incarné, qui réprouverait la masturbation et perturberait régulièrement les lois de la physique en réponse à de simples prières. Cette théorie ne cherche pas à défendre une telle idée. Elle ne fait que révéler une harmonie sous-jacente dans la nature, et une présence mentale généralisée, qui ne s'arrête pas aux systèmes biologiques. Les conclusions logiques inévitables et les implications de la TII sont empreintes à la fois d'élégance et de précision. Elle est source d'une spiritualité scientifique d'un genre nouveau, dépeignant une existence pleine de spiritualité que même les matérialistes les plus convaincus et les plus fervents athées peuvent défendre sans complexe.
Moi qui ai toujours condamné l'absence de prise en compte par la science de la dimension spirituelle, je ne peux qu'approuver et me réjouir. Mais il y a quand même un aspect de la TII qui mérite qu'on s'y attache : supposons que l'océan Pacifique soit l'univers, et que l'eau représente la conscience universelle dans laquelle tout est immergé, pour reprendre le mot de Koch. La conscience individuelle de l'homme, ainsi que celle supposée du smartphone ou encore d'Internet, n'ont alors plus aucun sens, car ce qu'il faut comprendre dans ce cas est que la multitude de formes organiques (ou non) qui évoluent dans cette eau/conscience vivent dans
l'illusion de posséder une conscience individuelle ! Toutefois, on pourrait comprendre Koch dans le sens que ce qu'il conçoit comme une conscience universelle serait la somme de toutes les consciences individuelles. Dans ce cas ce sont ses propres mots qui n'ont plus de sens, en particulier lorsqu'il écrit que la conscience est "
dans l'air que nous respirons, le sol que nous foulons, ...", car ni l'air ni le sol ne sont des systèmes de traitement de l'information, systèmes qu'il considère pourtant, tels le cerveau, comme donnant naissance à la conscience.
On voit qu'il y a encore beaucoup de travail avant de pouvoir donner un sens à la TII, car jusqu'à plus ample informé elle est chargée de zones d'ombre et de contradictions. Il est possible que Christof Koch soit un neuroscientifique sensible à l'enseignement d'Eckhart Tolle, ou d'un autre éveillé, selon qui la conscience, ou énergie consciente, est la Source de tout ce qui existe. Elle crée, on pourrait dire également revêt, les formes que nous voyons autour de nous, y compris bien sûr la nôtre, et dans ce sens la conscience n'appartient pas au cerveau, à l'individu, mais à la Création. Koch semble revendiquer comme un prolongement de sa théorie une vision de l'univers vieille de plusieurs millénaires. Mais il n'y a pas lieu de s'en plaindre.
Après la
simulation Bolchoï c'est à ma connaissance la seconde intrusion du domaine spirituel dans la science théorique, même si telle n'était pas l'intention des auteurs de la TII.
1500121575
Epistème
[quote=20-sided-dice post_id=45 time=1500053894 user_id=48]Savais-tu que lorsque nous sommes amoureux, la zone du cerveau gérant les sentiments est moins active ?[/quote]
C'est censé démontrer quoi ?
[quote=20-sided-dice post_id=45 time=1500053894 user_id=48]Eh bien pour commencer, j'aimerais casser cette idée reçue que l'impossibilité de reproduire (dans le sens de la recréer) l'humanité[/quote]
Voilà un [url=http://www.huffingtonpost.fr/bobby-azarian/neurosciences-la-nouvelle-theorie-de-la-conscience-est-empreinte-de-spiritualite_b_8212678.html]article[/url] qui va dans ton sens : il traite de la théorie de la conscience en tant que système d'informations. Il est dit qu'un smartphone pourrait être conscient, ainsi qu'Internet lui-même. C'est ce qu'on appelle la TII, Théorie de l'Information Intégrée. L'un de ses deux inventeurs, le neuroscientifique Christof Koch, fait cependant le parallèle avec le panpsychisme, doctrine selon laquelle toute matière a un aspect mental, ce qui ferait de la conscience un phénomène universel. Il écrit : "[i]L'intégralité du cosmos regorge de conscience. Nous sommes entourés, immergés dans la conscience. Elle est dans l'air que nous respirons, le sol que nous foulons, les bactéries qui colonisent nos intestins, et le cerveau qui nous permet de penser.[/i]"
C'est quand même assez déconcertant. Il affirme fournir "[i]une manière précise de mesurer la conscience et d'exprimer ce phénomène en termes purement mathématiques[/i]", prétend que "[i]tout système capable d'intégrer des informations, qu'il soit fait de carbone ou bien composé de puces en silicium et de fils métalliques, devrait produire des états de conscience[/i]", tout en proposant une nouvelle forme de spiritualité. Je cite le dernier paragraphe de l'article :
[quote]Jusqu'à présent, la TII est le meilleur exemple d'une doctrine scientifique se proposant d'offrir une description objective de la conscience. À ce titre, ses idées apparemment radicales méritent notre considération. Réfléchir à des questions que l'on pensait auparavant réservées aux fumeurs de pétards est à présent la tâche des plus brillants esprits scientifiques. La plupart des penseurs rationnels tombent d'accord sur l'absurdité du concept de dieu incarné, qui réprouverait la masturbation et perturberait régulièrement les lois de la physique en réponse à de simples prières. Cette théorie ne cherche pas à défendre une telle idée. Elle ne fait que révéler une harmonie sous-jacente dans la nature, et une présence mentale généralisée, qui ne s'arrête pas aux systèmes biologiques. Les conclusions logiques inévitables et les implications de la TII sont empreintes à la fois d'élégance et de précision. Elle est source d'une spiritualité scientifique d'un genre nouveau, dépeignant une existence pleine de spiritualité que même les matérialistes les plus convaincus et les plus fervents athées peuvent défendre sans complexe.[/quote]
Moi qui ai toujours condamné l'absence de prise en compte par la science de la dimension spirituelle, je ne peux qu'approuver et me réjouir. Mais il y a quand même un aspect de la TII qui mérite qu'on s'y attache : supposons que l'océan Pacifique soit l'univers, et que l'eau représente la conscience universelle dans laquelle tout est immergé, pour reprendre le mot de Koch. La conscience individuelle de l'homme, ainsi que celle supposée du smartphone ou encore d'Internet, n'ont alors plus aucun sens, car ce qu'il faut comprendre dans ce cas est que la multitude de formes organiques (ou non) qui évoluent dans cette eau/conscience vivent dans [i]l'illusion[/i] de posséder une conscience individuelle ! Toutefois, on pourrait comprendre Koch dans le sens que ce qu'il conçoit comme une conscience universelle serait la somme de toutes les consciences individuelles. Dans ce cas ce sont ses propres mots qui n'ont plus de sens, en particulier lorsqu'il écrit que la conscience est "[i]dans l'air que nous respirons, le sol que nous foulons, ...[/i]", car ni l'air ni le sol ne sont des systèmes de traitement de l'information, systèmes qu'il considère pourtant, tels le cerveau, comme donnant naissance à la conscience.
On voit qu'il y a encore beaucoup de travail avant de pouvoir donner un sens à la TII, car jusqu'à plus ample informé elle est chargée de zones d'ombre et de contradictions. Il est possible que Christof Koch soit un neuroscientifique sensible à l'enseignement d'Eckhart Tolle, ou d'un autre éveillé, selon qui la conscience, ou énergie consciente, est la Source de tout ce qui existe. Elle crée, on pourrait dire également revêt, les formes que nous voyons autour de nous, y compris bien sûr la nôtre, et dans ce sens la conscience n'appartient pas au cerveau, à l'individu, mais à la Création. Koch semble revendiquer comme un prolongement de sa théorie une vision de l'univers vieille de plusieurs millénaires. Mais il n'y a pas lieu de s'en plaindre.
Après la [lien=https://consyance.fr/viewtopic.php?f=22&t=24]simulation Bolchoï[/lien] c'est à ma connaissance la seconde intrusion du domaine spirituel dans la science théorique, même si telle n'était pas l'intention des auteurs de la TII.
-
Epistème
- Administrateur
- Messages : 134
- Inscription : 08 avr. 2017, 12:00
#27
15 juil. 2017, 15:46
[suite]
On trouvera sur
cette page [qui n'existe plus] une critique très bien argumentée de la TII. Je cite un passage (j'ai mis mes commentaires entre crochets) :
Jocelin Morisson a écrit :Les limites du raisonnement émergentiste [la conscience émergeant de processus neurobiologiques] naissent de son refus de toute forme d’idéalisme ou de spiritualisme. Elles naissent du refus de toute transcendance, et cette approche ignore volontairement et ostensiblement les données issues de milliers d’expériences d’états modifiés de conscience au cours desquels la conscience, loin d’être altérée, est au contraire décuplée, démultipliée [comme dans le cas d'une NDE]. Le matérialisme refuse de considérer la possibilité d’une transcendance parce que, par définition, l’origine de la conscience serait alors en dehors de son champ d’investigation. Pourtant, une théorie de la conscience doit rendre compte de l’intégralité de l’expérience humaine, y compris dans ces états de conscience étendue, de la synchronicité à l’expérience mystique en passant par l’expérience hors-du-corps. C’est pourquoi une théorie scientifique de la conscience doit aussi être philosophique, car notre expérience de la réalité dépasse le cadre du corps et du sensible [ou peut-être est-ce seulement la réalité elle-même qui le dépasse]. La métaphysique est convoquée, c’est-à-dire qu’il faut aussi penser au-delà du physique et du physicalisme. Beyond Physicalism est précisément le titre d’un important ouvrage collectif (dir. Edward Kelly) récemment publié aux Etats-Unis, et qui est dû à une autre école de pensée pour laquelle idéalisme philosophique, spiritualité et transcendance ne sont pas des tabous. Au contraire du matérialisme-émergentisme, cette réflexion considère que ce sont ces états de conscience lors desquels celle-ci semble s’affranchir des limitations de son support physique qui nous révèlent la véritable nature de la conscience. Cette réflexion s’inscrit dans l’héritage de William James, Henri Bergson, Frederic Myers, ou encore Aldous Huxley, qui tous ont pensé le cerveau comme un filtre, une valve de réduction permettant de "capter" un champ de conscience et de projeter notre réalité matérielle et temporelle, laquelle n’est qu’une expérience incluse dans un domaine de réalité bien plus vaste. Notre expérience est comme un film en 3D dont nous sommes à la fois l’acteur principal et le seul spectateur, car notre point de vue est unique.
Dans un autre paragraphe on trouve ce qui suit, concernant plus particulièrement l'intelligence artificielle :
Jocelin Morisson a écrit :C’est un progrès important de reconnaître cette omniprésence de la conscience, et toute théorie de la conscience doit tenir compte des acquis de la physique quantique qui questionnent notre relation au réel et impliquent un rôle, une action, de la conscience. Mais les choses prennent un tour différent quand les promoteurs de la TII prétendent qu’il est rationnel d’envisager qu’un système comme le réseau internet puisse être le support d’états de conscience, puisqu’il traite et intègre des informations à partir de milliards de transistors situés dans des machines connectées entre elles, tout comme les neurones dans un cerveau. Selon le même raisonnement, un smartphone pourrait avoir une expérience consciente de lui-même, bien que minimale. C’est là où les tenants de la théorie "émergentiste" tombent dans l’irrationnel et dans le fantasme transhumaniste, parce qu’ils refusent absolument l’idéalisme philosophique (selon Platon, le monde des Idées a une existence propre, indépendante de tout support) et toute forme de spiritualisme. L’approche matérialiste exige que la conscience unifiée émerge de la complexité croissante d’un système, quand bien même cette émergence elle-même ressemblerait au miracle de la transformation de l’eau en vin. De fait, les travaux d’intelligence artificielle n’ont jamais réussi à simuler la moindre forme de conscience autonome, même si certains dispositifs sont plus performants que le cerveau humain pour effectuer certaines tâches, ce qui est déjà le cas d’une calculette. Le physicien Philippe Guillemant explique qu’il sera facile de doter les robots d’intelligence, au sens de capacité à effectuer des tâches de plus en plus complexes, mais que cela n’a rien à voir avec la conscience.
Pour mieux comprendre le point de vue de Christof Koch sur l'intelligence artificielle on peut également lire
cette interview de lui lors de la conférence EmTech au MIT.
1500126402
Epistème
[suite]
On trouvera sur [url=http://www.lateledelilou.com/jocelinmorisson/Internet-peut-il-etre-conscient-Ou-le-materialisme-jusqu-a-l-absurde_a9.html]cette page[/url] [qui n'existe plus] une critique très bien argumentée de la TII. Je cite un passage (j'ai mis mes commentaires entre crochets) :
[quote="Jocelin Morisson"]Les limites du raisonnement émergentiste [la conscience émergeant de processus neurobiologiques] naissent de son refus de toute forme d’idéalisme ou de spiritualisme. Elles naissent du refus de toute transcendance, et cette approche ignore volontairement et ostensiblement les données issues de milliers d’expériences d’états modifiés de conscience au cours desquels la conscience, loin d’être altérée, est au contraire décuplée, démultipliée [comme dans le cas d'une NDE]. Le matérialisme refuse de considérer la possibilité d’une transcendance parce que, par définition, l’origine de la conscience serait alors en dehors de son champ d’investigation. Pourtant, une théorie de la conscience doit rendre compte de l’intégralité de l’expérience humaine, y compris dans ces états de conscience étendue, de la synchronicité à l’expérience mystique en passant par l’expérience hors-du-corps. C’est pourquoi une théorie scientifique de la conscience doit aussi être philosophique, car notre expérience de la réalité dépasse le cadre du corps et du sensible [ou peut-être est-ce seulement la réalité elle-même qui le dépasse]. La métaphysique est convoquée, c’est-à-dire qu’il faut aussi penser au-delà du physique et du physicalisme. Beyond Physicalism est précisément le titre d’un important ouvrage collectif (dir. Edward Kelly) récemment publié aux Etats-Unis, et qui est dû à une autre école de pensée pour laquelle idéalisme philosophique, spiritualité et transcendance ne sont pas des tabous. Au contraire du matérialisme-émergentisme, cette réflexion considère que ce sont ces états de conscience lors desquels celle-ci semble s’affranchir des limitations de son support physique qui nous révèlent la véritable nature de la conscience. Cette réflexion s’inscrit dans l’héritage de William James, Henri Bergson, Frederic Myers, ou encore Aldous Huxley, qui tous ont pensé le cerveau comme un filtre, une valve de réduction permettant de "capter" un champ de conscience et de projeter notre réalité matérielle et temporelle, laquelle n’est qu’une expérience incluse dans un domaine de réalité bien plus vaste. Notre expérience est comme un film en 3D dont nous sommes à la fois l’acteur principal et le seul spectateur, car notre point de vue est unique.[/quote]
Dans un autre paragraphe on trouve ce qui suit, concernant plus particulièrement l'intelligence artificielle :
[quote="Jocelin Morisson"]C’est un progrès important de reconnaître cette omniprésence de la conscience, et toute théorie de la conscience doit tenir compte des acquis de la physique quantique qui questionnent notre relation au réel et impliquent un rôle, une action, de la conscience. Mais les choses prennent un tour différent quand les promoteurs de la TII prétendent qu’il est rationnel d’envisager qu’un système comme le réseau internet puisse être le support d’états de conscience, puisqu’il traite et intègre des informations à partir de milliards de transistors situés dans des machines connectées entre elles, tout comme les neurones dans un cerveau. Selon le même raisonnement, un smartphone pourrait avoir une expérience consciente de lui-même, bien que minimale. C’est là où les tenants de la théorie "émergentiste" tombent dans l’irrationnel et dans le fantasme transhumaniste, parce qu’ils refusent absolument l’idéalisme philosophique (selon Platon, le monde des Idées a une existence propre, indépendante de tout support) et toute forme de spiritualisme. L’approche matérialiste exige que la conscience unifiée émerge de la complexité croissante d’un système, quand bien même cette émergence elle-même ressemblerait au miracle de la transformation de l’eau en vin. De fait, les travaux d’intelligence artificielle n’ont jamais réussi à simuler la moindre forme de conscience autonome, même si certains dispositifs sont plus performants que le cerveau humain pour effectuer certaines tâches, ce qui est déjà le cas d’une calculette. Le physicien Philippe Guillemant explique qu’il sera facile de doter les robots d’intelligence, au sens de capacité à effectuer des tâches de plus en plus complexes, mais que cela n’a rien à voir avec la conscience.[/quote]
Pour mieux comprendre le point de vue de Christof Koch sur l'intelligence artificielle on peut également lire [url=http://www.techniques-ingenieur.fr/actualite/articles/comment-donner-une-conscience-a-un-ordinateur-2392/]cette interview[/url] de lui lors de la conférence EmTech au MIT.
-
Epistème
- Administrateur
- Messages : 134
- Inscription : 08 avr. 2017, 12:00
#28
17 juil. 2017, 17:42
Jocelin Morisson a écrit :Le physicien Philippe Guillemant explique qu’il sera facile de doter les robots d’intelligence, au sens de capacité à effectuer des tâches de plus en plus complexes, mais que cela n’a rien à voir avec la conscience.
Une chose m'interpelle quand même dans cette phrase : comment peut-on parler de l'éventuelle intelligence des robots tout en précisant qu'elle n'a rien à voir avec la conscience ?
Selon Wikipedia, "
l'intelligence est l'ensemble des facultés mentales permettant de comprendre les choses et les faits, de découvrir les relations entre elles et d'aboutir à la connaissance conceptuelle et rationnelle (par opposition à la sensation et à l'intuition). Elle permet de comprendre et de s'adapter à des situations nouvelles et peut en ce sens être également définie comme la faculté d'adaptation. L'intelligence peut être également perçue comme la capacité à traiter l'information pour atteindre ses objectifs."
Il n'existe aucune chance pour qu'une forme d'intelligence soit observée chez un organisme biologique privé de conscience de lui-même, et à plus forte raison chez une machine. Si l'intelligence peut être perçue comme "
la capacité à traiter l'information pour atteindre ses objectifs", alors dans le cas d'un robot il s'agira, comme je l'ai dit plus haut, non pas de la sienne propre mais de celle du programmeur. L'intelligence est intimement liée à la faculté de compréhension. Je suppose que Philippe Guillemant parlait de doter les robots des "caractéristiques de l'intelligence". Il faut se méfier des termes devenus si courants que peu de gens réfléchissent à leur sens avant de les employer.
1500306121
Epistème
[quote="Jocelin Morisson"]Le physicien Philippe Guillemant explique qu’il sera facile de doter les robots d’intelligence, au sens de capacité à effectuer des tâches de plus en plus complexes, mais que cela n’a rien à voir avec la conscience.[/quote]Une chose m'interpelle quand même dans cette phrase : comment peut-on parler de l'éventuelle intelligence des robots tout en précisant qu'elle n'a rien à voir avec la conscience ?
Selon Wikipedia, "[i]l'intelligence est l'ensemble des facultés mentales permettant de comprendre les choses et les faits, de découvrir les relations entre elles et d'aboutir à la connaissance conceptuelle et rationnelle (par opposition à la sensation et à l'intuition). Elle permet de comprendre et de s'adapter à des situations nouvelles et peut en ce sens être également définie comme la faculté d'adaptation. L'intelligence peut être également perçue comme la capacité à traiter l'information pour atteindre ses objectifs.[/i]"
Il n'existe aucune chance pour qu'une forme d'intelligence soit observée chez un organisme biologique privé de conscience de lui-même, et à plus forte raison chez une machine. Si l'intelligence peut être perçue comme "[i]la capacité à traiter l'information pour atteindre ses objectifs[/i]", alors dans le cas d'un robot il s'agira, comme je l'ai dit plus haut, non pas de la sienne propre mais de celle du programmeur. L'intelligence est intimement liée à la faculté de compréhension. Je suppose que Philippe Guillemant parlait de doter les robots des "caractéristiques de l'intelligence". Il faut se méfier des termes devenus si courants que peu de gens réfléchissent à leur sens avant de les employer.
-
20-sided-dice
- Messages : 68
- Inscription : 08 avr. 2017, 17:52
#29
17 juil. 2017, 21:42
Je suis un peu dubitatif face à tes exemples. Je ne sais pas vraiment quoi ajouter, dans un sens ou dans l'autre.
D'accord, je crois que j'ai compris un point capital de ta réflexion. Si un programme est capable de résoudre un problème (mettons une résolution d'équation), on peut effectivement considérer qu'il est intelligent. On aura beau rétorquer qu'il ne s'agit que d'une manifestation de l'intelligence du programmeur, le programme est tout de même DE FAIT capable de résoudre un problème. Et donc intelligent.
Ce serait la clé sur ce débat de l'appellation Intelligence Artificielle !!
1500320525
20-sided-dice
Je suis un peu dubitatif face à tes exemples. Je ne sais pas vraiment quoi ajouter, dans un sens ou dans l'autre.
D'accord, je crois que j'ai compris un point capital de ta réflexion. Si un programme est capable de résoudre un problème (mettons une résolution d'équation), on peut effectivement considérer qu'il est intelligent. On aura beau rétorquer qu'il ne s'agit que d'une manifestation de l'intelligence du programmeur, le programme est tout de même DE FAIT capable de résoudre un problème. Et donc intelligent.
Ce serait la clé sur ce débat de l'appellation Intelligence Artificielle !!
-
Epistème
- Administrateur
- Messages : 134
- Inscription : 08 avr. 2017, 12:00
#30
18 juil. 2017, 17:35
Selon toi, un métier à tisser qui vient de terminer la fabrication d'une étoffe peut-il être considéré comme intelligent au prétexte qu'il l'a fabriquée "tout seul" ? Peux-tu expliciter ta réponse ?
1500392151
Epistème
Selon toi, un métier à tisser qui vient de terminer la fabrication d'une étoffe peut-il être considéré comme intelligent au prétexte qu'il l'a fabriquée "tout seul" ? Peux-tu expliciter ta réponse ?
-
20-sided-dice
- Messages : 68
- Inscription : 08 avr. 2017, 17:52
#31
19 juil. 2017, 14:28
Pour approfondir la réflexion, j'aimerais faire la différence entre un outil et un robot.
Un sécateur n'est pas intelligent. Si tu mets un sécateur devant un arbre, tu ne retrouveras pas ton arbre élagué. Un outil n'est là que pour rendre plus efficace l'action de l'homme. Alors qu'un robot coupeur de branches (mettons que ça existe), tu lui confies une tâche et il va la faire tout seul. Il a, lui, les capacités d'effectuer la tâche et fait preuve d'intelligence (je te l'accorde, plus que limitée).
La différence entre une intelligence humaine et celle-ci serait qu'un être humain est un être suffisamment bien foutu pour être polyvalent et donc particulièrement intelligent et astucieux, contrairement au robot.
1500467303
20-sided-dice
Pour approfondir la réflexion, j'aimerais faire la différence entre un outil et un robot.
Un sécateur n'est pas intelligent. Si tu mets un sécateur devant un arbre, tu ne retrouveras pas ton arbre élagué. Un outil n'est là que pour rendre plus efficace l'action de l'homme. Alors qu'un robot coupeur de branches (mettons que ça existe), tu lui confies une tâche et il va la faire tout seul. Il a, lui, les capacités d'effectuer la tâche et fait preuve d'intelligence (je te l'accorde, plus que limitée).
La différence entre une intelligence humaine et celle-ci serait qu'un être humain est un être suffisamment bien foutu pour être polyvalent et donc particulièrement intelligent et astucieux, contrairement au robot.