L'intelligence artificielle

Tromperies manifestes, volontaires ou non, dans la sphère scientifico-industrielle
Avatar de l’utilisateur
Waneg
Administrateur
Messages : 119
Inscription : 08 avr. 2017, 12:00

#31

18 juil. 2017, 17:35

Dernier message de la page précédente :

Selon toi, un métier à tisser qui vient de terminer la fabrication d'une étoffe peut-il être considéré comme intelligent au prétexte qu'il l'a fabriquée "tout seul" ? Peux-tu expliciter ta réponse ?

Avatar de l’utilisateur
20-sided-dice
Messages : 68
Inscription : 08 avr. 2017, 17:52

#32

19 juil. 2017, 14:28

Pour approfondir la réflexion, j'aimerais faire la différence entre un outil et un robot.

Un sécateur n'est pas intelligent. Si tu mets un sécateur devant un arbre, tu ne retrouveras pas ton arbre élagué. Un outil n'est là que pour rendre plus efficace l'action de l'homme. Alors qu'un robot coupeur de branches (mettons que ça existe), tu lui confies une tâche et il va la faire tout seul. Il a, lui, les capacités d'effectuer la tâche et fait preuve d'intelligence (je te l'accorde, plus que limitée).

La différence entre une intelligence humaine et celle-ci serait qu'un être humain est un être suffisamment bien foutu pour être polyvalent et donc particulièrement intelligent et astucieux, contrairement au robot.

Avatar de l’utilisateur
Waneg
Administrateur
Messages : 119
Inscription : 08 avr. 2017, 12:00

#33

20 juil. 2017, 13:23

Ma question portait sur le métier à tisser, mais je déduis de ta réponse que tu le considères comme intelligent. Je crois que nous n'avons pas la même conception de l'intelligence...

Avatar de l’utilisateur
20-sided-dice
Messages : 68
Inscription : 08 avr. 2017, 17:52

#34

21 juil. 2017, 17:22

Si le métier à tisser tisse tout seul, oui.
Wikipedia a écrit :L'intelligence peut être également perçue comme la capacité à traiter l'information pour atteindre ses objectifs.
Je m'en tiens à cette définition, mais je suis conscient qu'elle n'est sans doute pas complète.

Avatar de l’utilisateur
Waneg
Administrateur
Messages : 119
Inscription : 08 avr. 2017, 12:00

#35

21 juil. 2017, 21:16

Je pense que tu fais la confusion entre intelligence et "comportement intelligent". Si on ne tient compte que de ce qu'elle sait faire, alors une machine peut se comporter de manière intelligente, mais ça ne signifie pas qu'elle est intelligente.

Avatar de l’utilisateur
20-sided-dice
Messages : 68
Inscription : 08 avr. 2017, 17:52

#36

22 juil. 2017, 14:32

Certes, mais ces deux facettes sont-elles vraiment dissociables ? Si une machine répond à chacune de mes questions de manière intelligente et sensée, je ne peux pas faire la différence entre une intelligence simulée ou réelle.

Avatar de l’utilisateur
Waneg
Administrateur
Messages : 119
Inscription : 08 avr. 2017, 12:00

#37

22 juil. 2017, 17:47

C'est le principe même du test de Turing. Il pensait que si on ne parvenait plus à faire la différence entre les réponses d'une machine et celles d'un être humain, alors c'est que la machine en question était douée d'intelligence. Ce n'est pas seulement utopique, mais surtout complètement faux. Les réponses que fait la machine ont été programmées, elle n'invente strictement rien. Si tu lui poses une question non prévue par le programmeur elle ne répondra pas, de la même manière qu'un métier à tisser jacquard ne tissera jamais un motif qui ne figure pas sur une carte perforée créée par des spécialistes.

Il faut voir le déroulement d'un programme comme le trajet sur un arbre : arrivé à chaque nœud il y a un choix à faire quant à la direction à prendre, et ce choix dépend de ceux qui ont été faits jusque là. Autrement dit, à chaque arrivée sur un nouveau nœud la machine a acquis un ensemble d'informations qui lui permettent de sélectionner parmi les nœuds suivants celui vers lequel elle doit se diriger. C'est la manière dont procède un médecin : chaque nouvelle question qu'il pose au malade dépend de toutes celles qu'il a obtenues jusque là. Il affine son diagnostic étape par étape en partant du sommet de l'arbre, c'est-à-dire en partant d'un choix très vaste (souffrez-vous de la tête, de l'estomac, du dos, des jambes, etc. etc. ?) pour au final aboutir à sa racine, qui dans cet exemple représente le diagnostic de la maladie. Un ordinateur peut très facilement reproduire ce processus, si toutefois les concepteurs du programme comptent dans leurs rangs des médecins qui auront apporté toutes leurs connaissances médicales.

Supposons maintenant qu'en allant chez le médecin tu te retrouves face à cet ordinateur-là. Te connaissant tu vas probablement penser qu'il est intelligent, qu'il en sait autant qu'un médecin, et tu vas faire confiance à son diagnostic. Mais en réalité c'est aux médecins qui ont conçu son programme que tu fais confiance, pas à la machine ! Croire que la machine en tant que telle a produit le bon diagnostic est une erreur absolue, une croyance populaire que les marchands exploitent depuis des années, d'où le classement de ce topic dans la rubrique charlataneries.

Avatar de l’utilisateur
20-sided-dice
Messages : 68
Inscription : 08 avr. 2017, 17:52

#38

22 juil. 2017, 21:09

Je suis tout à fait d'accord avec toi quand tu dis qu'un robot ne fera jamais rien d'autre que faire ce pour quoi il est programmé, mais il faut appliquer le test de Turing jusqu'au bout.

Si tu demandes à ton métier à tisser de faire un motif qu'il connaît, tu ne pourra pas faire la différence entre lui et un être humain, mais si tu lui demandes par exemple de dessiner Smaug en tissant (en supposant qu'il n'ait pas été programmé pour), un être humain se débrouillera pour y arriver alors que la machine ne le pourra pas. Echec au test de Turing, pas d'intelligence complète.

C'est la même chose pour tout type de robot, et on pourrait alors dire que leur intelligence est en fait extrêmement limitée. Alors qu'un robot que l'on ne pourrait pas différencier d'un être humain, lui, ferait preuve d'une intelligence complète.

Le principe du test n'est pas de singer le comportement humain, car il est impossible de répertorier et programmer toutes les capacités humaines imaginables. Donc, si un robot est effectivement indifférenciable d'un être humain, c'est qu'il adopte "de lui-même" ce comportement au lieu d'en copier des ébauches.

A ce moment-là, on aura (si ce moment arrive un jour) réussi à programmer un robot comme un être humain. Il sera donc intelligent car identique à nous.

Avatar de l’utilisateur
Waneg
Administrateur
Messages : 119
Inscription : 08 avr. 2017, 12:00

#39

22 juil. 2017, 23:02

Tu reprends les termes exacts de la théorie en vogue. Les marchands de rêve ont encore de beaux jours devant eux...

Avatar de l’utilisateur
20-sided-dice
Messages : 68
Inscription : 08 avr. 2017, 17:52

#40

23 juil. 2017, 11:34

Bon... (vexé).

Pour avoir un discours peut-être moins haut perché, pourras-tu me répondre à cette question : quelle est la différence essentielle entre une intelligence humaine biologique et une intelligence artificielle électronique ?

Avatar de l’utilisateur
Waneg
Administrateur
Messages : 119
Inscription : 08 avr. 2017, 12:00

#41

23 juil. 2017, 15:16

L'intelligence humaine est naturelle, elle ne relève pas de notre volonté mais d'une réalité sur laquelle nous n'avons aucun contrôle ; elle ne peut être conceptualisée puisqu'elle précède la faculté de penser (sans conscience/intelligence il est impossible de penser).

L'intelligence artificielle n'existe pas, seul existe un savoir-faire programmé.

Avatar de l’utilisateur
20-sided-dice
Messages : 68
Inscription : 08 avr. 2017, 17:52

#42

23 juil. 2017, 18:47

Malgré mes différences de point de vue, je trouve tes définitions très bien faites. Surtout l'expression "savoir-faire" qui répond au test de Turing et permet d'en faire une critique.

Pour essayer d'explorer ton point de vue, il est vrai qu'il existe des phénomènes logiques ou mathématiques qui ne SONT PAS ALGORITHMIQUES et qui ne peuvent donc pas être codés. Par exemple, il n'existe pas de résolution générale algorithmique d'une équation de degré 6. Est-ce que c'est ton point de vue ? Est-ce que tu penses que l'intelligence humaine est un procédé logique non-algorithmique ?

J'essaierai de voir la démonstration mathématique du fait que la solution à un problème logique n'est pas algorithmique pour pouvoir essayer d'explorer cette possibilité.

Avatar de l’utilisateur
Waneg
Administrateur
Messages : 119
Inscription : 08 avr. 2017, 12:00

#43

23 juil. 2017, 19:29

20-sided-dice a écrit :
23 juil. 2017, 18:47
il n'existe pas de résolution générale algorithmique d'une équation de degré 6.
Dans ce cas un ordinateur sera incapable de calculer ses racines. On tente en général de pallier l'absence d'algorithme par des réseaux de neurones artificiels (ou réseaux neuronaux pour faire court), déclarés capables d'apprentissage, c'est-à-dire d'apprendre de leurs erreurs. C'est une technique souvent mise en œuvre dans le domaine de l'intelligence artificielle, mais comme toujours il faut se méfier des termes. Voici un document pdf de 13 pages qui explique très bien (et démythifie) ce que sont ces fameux réseaux. Tu comprendras que la machine n'a nullement besoin d'être intelligente ; comme toujours elle se contente de faire ce qu'on lui demande.
20-sided-dice a écrit :
23 juil. 2017, 18:47
Est-ce que tu penses que l'intelligence humaine est un procédé logique non-algorithmique ?
Logique non, non-algorithmique oui. La logique est une invention humaine destinée à servir la connaissance, c'est un outil qu'utilise le mental, mais la conscience/intelligence en tant que telle est capable de Connaissance (voir le sujet connaissance vs Connaissance), c'est-à-dire de connaître directement et absolument sans avoir recours à l'observation, à l'expérimentation, au raisonnement. Et sans raisonnement il n'y a pas de logique.

Avatar de l’utilisateur
20-sided-dice
Messages : 68
Inscription : 08 avr. 2017, 17:52

#44

23 juil. 2017, 21:09

Waneg a écrit :
23 juil. 2017, 19:29
Dans ce cas un ordinateur sera incapable de calculer ses racines. On tente en général de pallier l'absence d'algorithme par des réseaux de neurones artificiels
En fait, la plupart du temps, les ordinateurs vont calculer une réponse approximative.

Merci pour ce PDF tout à fait complet, je ne l'ai pas lu en entier mais suffisamment pour comprendre que (il me semble) le terme de réseau neuronal n'est pas usurpé : c'est presque une copie conforme !
Waneg a écrit :
23 juil. 2017, 19:29
Logique non, non-algorithmique oui.
Aaaah ! Enfin j'arrive à te cerner sur cette question !! Par contre j'avoue être incapable pour le moment de pouvoir avancer dans l'argumentation. C'est un point de vue face auquel je ne m'étais pas encore retrouvé :)

Avatar de l’utilisateur
Waneg
Administrateur
Messages : 119
Inscription : 08 avr. 2017, 12:00

#45

23 juil. 2017, 22:21

20-sided-dice a écrit :
23 juil. 2017, 21:09
En fait, la plupart du temps, les ordinateurs vont calculer une réponse approximative.
Oui, si on les programme en conséquence... :D

Avatar de l’utilisateur
Waneg
Administrateur
Messages : 119
Inscription : 08 avr. 2017, 12:00

#46

23 juil. 2017, 23:46

Je donne ci-dessous le lien vers une interview de Michel Nachez, un cyberanthropologue (étude des rapports homme/machine) de l'université Marc Bloch, à Strasbourg. Voici un extrait :
Marc Bloch a écrit :Aujourd’hui, il existe un certain type de logiciels extrêmement avancés, qui ont des algorithmes évolutifs, mais la machine n’est ni consciente d’elle-même, ni intelligente. Elle tourne selon des programmes pré-établis et exécute les tâches qu’on lui donne.
(...)
On ne détecte pas aujourd’hui d’intelligence autonome dans les systèmes. Or c’est ça qui fait peur. Ce qui effraye, c’est le discours des pontes de l’intelligence artificielle qui disent qu’à un certain degré de complexité, émerge la conscience dans les systèmes. Nous, êtres humains, avec notre cerveau complexe, sommes conscients de nous-mêmes et pouvons prendre des décisions. Or, on nous dit que lorsque la capacité de calcul des ordinateurs sera telle qu’elle atteindra ou dépassera le niveau du cerveau humain, la machine pourra prendre des décisions autonomes.
On est là face au discours récurrent en matière d'intelligence des machines : la conscience naîtrait de la complexité des circuits électroniques. Inutile de préciser que, de mon point de vue, cette croyance est fondée sur l'ignorance.

On peut cependant entrevoir ce que sera le futur au travers des soucoupes-volantes que l'armée américaine (et russe) a étudiées après leur crash. Le poste de pilotage ne comporte que deux empreintes de main, la gauche et la droite, celles du pilote. Celui-ci les place dans les empreintes et dirige le vaisseau par la pensée, ou plutôt la volonté, comme s'il s'agissait de son propre corps, ou en l'occurrence d'un prolongement de celui-ci (d'ailleurs, on conduit une voiture un peu comme un prolongement de nous-même, on "perçoit" le volume qu'elle occupe). Ceci n'est pas sans rappeler, à un plus faible degré, la mitrailleuse d'un avion de chasse, qui se dirige dans la direction où se porte le regard du pilote. Connaître le mode opératoire ne nous renseigne cependant aucunement sur la manière dont le vaisseau est conçu pour réagir à la volonté du pilote, mais une chose est certaine, une technologie qui possède une avance considérable sur la nôtre a conservé la maîtrise de ses machines, qui restent apparemment sous le contrôle de leurs constructeurs. Sans doute ces derniers sont-ils au fait que la conscience ne naît pas de la complexité des circuits, qui dans ce cas précis doivent l'être sacrément !

Il est absolument incroyable que des "pontes de l'intelligence artificielle", des gens sérieux et intelligents comme Bill Gates, puissent nourrir des peurs qui s'apparentent à celle, aussi irraisonnée, que beaucoup de personnes ont de l'obscurité, qu'elles imaginent pleine de dangers !

Faut-il avoir peur de l’intelligence artificielle ?

Et, en passant, voici quelques exemples d'utilisation des réseaux neuronaux tirés de la doc de Mathematica 11, la dernière version à l'heure où j'écris.

Répondre