par Epistème » 23 juil. 2017, 23:46
Je donne ci-dessous le lien vers une interview de Michel Nachez, un cyberanthropologue (étude des rapports homme/machine) de l'université Marc Bloch, à Strasbourg. Voici un extrait :
Marc Bloch a écrit :Aujourd’hui, il existe un certain type de logiciels extrêmement avancés, qui ont des algorithmes évolutifs, mais la machine n’est ni consciente d’elle-même, ni intelligente. Elle tourne selon des programmes pré-établis et exécute les tâches qu’on lui donne.
(...)
On ne détecte pas aujourd’hui d’intelligence autonome dans les systèmes. Or c’est ça qui fait peur. Ce qui effraye, c’est le discours des pontes de l’intelligence artificielle qui disent qu’à un certain degré de complexité, émerge la conscience dans les systèmes. Nous, êtres humains, avec notre cerveau complexe, sommes conscients de nous-mêmes et pouvons prendre des décisions. Or, on nous dit que lorsque la capacité de calcul des ordinateurs sera telle qu’elle atteindra ou dépassera le niveau du cerveau humain, la machine pourra prendre des décisions autonomes.
On est là face au discours récurrent en matière d'intelligence des machines : la conscience naîtrait de la complexité des circuits électroniques. Inutile de préciser que, de mon point de vue, cette croyance est fondée sur l'ignorance.
On peut cependant entrevoir ce que sera le futur au travers des soucoupes-volantes que l'armée américaine (et russe) a étudiées après leur crash. Le poste de pilotage ne comporte que deux empreintes de main, la gauche et la droite, celles du pilote. Celui-ci les place dans les empreintes et dirige le vaisseau par la pensée, ou plutôt la volonté, comme s'il s'agissait de son propre corps, ou en l'occurrence d'un prolongement de celui-ci (d'ailleurs, on conduit une voiture un peu comme un prolongement de nous-même, on "perçoit" le volume qu'elle occupe). Ceci n'est pas sans rappeler, à un plus faible degré, la mitrailleuse d'un avion de chasse, qui se dirige dans la direction où se porte le regard du pilote. Connaître le mode opératoire ne nous renseigne cependant aucunement sur la manière dont le vaisseau est conçu pour réagir à la volonté du pilote, mais une chose est certaine : une technologie qui possède une avance considérable sur la nôtre a conservé la maîtrise de ses machines, qui restent apparemment sous le contrôle de leurs constructeurs. Sans doute ces derniers sont-ils au fait que la conscience ne naît pas de la complexité des circuits, qui dans ce cas précis doivent l'être sacrément !
Il est absolument incroyable que des "pontes de l'intelligence artificielle", des gens sérieux et intelligents comme Bill Gates, puissent nourrir des peurs qui s'apparentent à celle, aussi irraisonnée, que beaucoup de personnes ont de l'obscurité, qu'elles imaginent pleine de dangers !
Faut-il avoir peur de l’intelligence artificielle ? [encore un lien mort]. Ce qui ressort de cet article est que si peur il y a elle sera basée sur le fait que les machines "intelligentes" pourront se connecter en réseau, sur Internet, et être la cible de hackers mal intentionnés. Il ne s'agit aucunement de la peur de ces machines en tant que telles mais de la manière dont certains pourraient détourner leurs capacités à leur profit. Deux peurs totalement différentes.
Et, en passant, voici
quelques exemples d'utilisation des réseaux neuronaux tirés de la doc de Mathematica 11, la dernière version à l'heure où j'écris.
Je donne ci-dessous le lien vers une interview de Michel Nachez, un cyberanthropologue (étude des rapports homme/machine) de l'université Marc Bloch, à Strasbourg. Voici un extrait :
[quote="Marc Bloch"]Aujourd’hui, il existe un certain type de logiciels extrêmement avancés, qui ont des algorithmes évolutifs, mais la machine n’est ni consciente d’elle-même, ni intelligente. Elle tourne selon des programmes pré-établis et exécute les tâches qu’on lui donne.
(...)
On ne détecte pas aujourd’hui d’intelligence autonome dans les systèmes. Or c’est ça qui fait peur. Ce qui effraye, c’est le discours des pontes de l’intelligence artificielle qui disent qu’à un certain degré de complexité, émerge la conscience dans les systèmes. Nous, êtres humains, avec notre cerveau complexe, sommes conscients de nous-mêmes et pouvons prendre des décisions. Or, on nous dit que lorsque la capacité de calcul des ordinateurs sera telle qu’elle atteindra ou dépassera le niveau du cerveau humain, la machine pourra prendre des décisions autonomes.[/quote]
On est là face au discours récurrent en matière d'intelligence des machines : la conscience naîtrait de la complexité des circuits électroniques. Inutile de préciser que, de mon point de vue, cette croyance est fondée sur l'ignorance.
On peut cependant entrevoir ce que sera le futur au travers des soucoupes-volantes que l'armée américaine (et russe) a étudiées après leur crash. Le poste de pilotage ne comporte que deux empreintes de main, la gauche et la droite, celles du pilote. Celui-ci les place dans les empreintes et dirige le vaisseau par la pensée, ou plutôt la volonté, comme s'il s'agissait de son propre corps, ou en l'occurrence d'un prolongement de celui-ci (d'ailleurs, on conduit une voiture un peu comme un prolongement de nous-même, on "perçoit" le volume qu'elle occupe). Ceci n'est pas sans rappeler, à un plus faible degré, la mitrailleuse d'un avion de chasse, qui se dirige dans la direction où se porte le regard du pilote. Connaître le mode opératoire ne nous renseigne cependant aucunement sur la manière dont le vaisseau est conçu pour réagir à la volonté du pilote, mais une chose est certaine : une technologie qui possède une avance considérable sur la nôtre a conservé la maîtrise de ses machines, qui restent apparemment sous le contrôle de leurs constructeurs. Sans doute ces derniers sont-ils au fait que la conscience ne naît pas de la complexité des circuits, qui dans ce cas précis doivent l'être sacrément !
Il est absolument incroyable que des "pontes de l'intelligence artificielle", des gens sérieux et intelligents comme Bill Gates, puissent nourrir des peurs qui s'apparentent à celle, aussi irraisonnée, que beaucoup de personnes ont de l'obscurité, qu'elles imaginent pleine de dangers !
[url=http://rue89.nouvelobs.com/2016/08/26/faut-avoir-peur-lintelligence-artificielle-258570]Faut-il avoir peur de l’intelligence artificielle ?[/url] [encore un lien mort]. Ce qui ressort de cet article est que si peur il y a elle sera basée sur le fait que les machines "intelligentes" pourront se connecter en réseau, sur Internet, et être la cible de hackers mal intentionnés. Il ne s'agit aucunement de la peur de ces machines en tant que telles mais de la manière dont certains pourraient détourner leurs capacités à leur profit. Deux peurs totalement différentes.
Et, en passant, voici [url=http://www.wolfram.com/language/11/neural-networks/index.html?product=mathematica]quelques exemples[/url] d'utilisation des réseaux neuronaux tirés de la doc de Mathematica 11, la dernière version à l'heure où j'écris.