Richard Guillaume

Pas d'Intelligence Artificielle, de Skynet de Terminator et pas d'ET ni d'UFO

Messages recommandés

...sauf que ni un chat ni un rat ne passent le test du miroir...

Partager ce message


Lien à poster
Partager sur d’autres sites
Alors :

1. Le test du miroir prouve qu'il y a conscience de soi (et encore, certains auteurs ne sont pas d'accord). L'absence de réponse positive ne prouve pas qu'il n'y a pas de conscience de soi.

2. Les rats sont utilisés pour des études de sociologie de groupe, ils sont capables de raisonnements et d'anticipation dans ce domaine. Les comparer à un classique programme ou a des automates serait gonflé.

3. Le but de mon propos était surtout de dire que si on commence à argumenter que rien ne peut émerger d'un réseau de neurones suffisamment grand, alors il faut se poser des questions sur le cerveau humain lui-même.
En l'occurrence, je l'ai fait plus haut, je ne suis pas convaincu moi-même que nous soyons des intelligences fortes.
Encore une fois, des travaux reconnus en neurosciences semblent montrer que le libre arbitre n'est qu'une illusion.

[Ce message a été modifié par Tournesol (Édité le 13-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Cher Vaufrèges.
1) je reconnais bien volontier ne pas toujours m' exprimer de façon optimale;S' il te plait ne prends pas des maladresses pour des attaques personnelles.

2)

quote:
Dites les techniciens, ce serait trop demander d'arrêter un peu avec ces "15 ans" lancés ironiquement plus haut par PascalD et de lire un peu ce que j'écris sur la date réelle des propos de Searle et du livre de Penrose ?..


Les 15 ans de retard n'avaient (pour une fois) rien d'ironique. Je m' explique: En 2000, soit il y a 15 ans, les réseaux de neurones (informatiques) étaient dans une impasse, parce que personne ne connaissait de méthode pour leur faire résoudre des problèmes : le code qui calcule la sortie en fonction de l' entrée était au point, mais le code pour ajuster les coefficient afin que la sortie ressemble à ce qu'on cherchait, personne ne savait l' écrire. C'était l' époque ou ils étaient "couteux" et "nécéssitaient des experts pointus".

Aujourd'hui, on en est plus là du tout: les méthodes d'apprentissage ont fait un bon en avant (et on peut en simuler beaucoup plus avec un simple PC du commerce muni d'une bonne carte graphique). C'est ce qui a relancé la mode, depuis une paire d'années.

quote:
".. dans cette partie de son exposé Searle n'a pas encore évoqué les réseaux de neurones". Il le fait plus loin dans sa critique de "Shadows of the mind" de Penrose


Ah bon. Donc, dans la partie suivante, il invalide sa démonstration en 3 points ?
Pour rappel:
quote:

1. les programmes effectuent des opérations syntaxiques.

2. l'esprit met en jeu des contenus sémantiques.

3. les opérations syntaxiques sont différentes des contenus sémantiques et insuffisantes en elles-mêmes pour atteindre le niveau sémantique.

Les programmes informatiques ne sont donc pas des esprits : CQFD.

Pour réfuter cet argument, il faudrait pouvoir montrer que l'une des prémisses ci-dessus est fausse et cette éventualité semble peu vraisemblable.



Cette éventualité est au contraire extrêmement vraisemblable: le point 1. est manifestement faux, pour les raisons expliquées (peut-être pas très clairement) par Tournesol, que j' ai maladroitement essayé de reformuler (pas forcément de façon plus claires).

Partager ce message


Lien à poster
Partager sur d’autres sites
PascalD, en quoi les réseaux de neurones auraient permis un saut qualitatif ?

Identifier par exemple sur des images les piétons et les voitures ou distinguer le chant du rossignol de celui du colibri ou reconnaître des caractères ça se fait avec ou sans réseau de neurones avec plus ou moins d'efficacité depuis des années. La méthode la plus simple est celle des proches voisins : il suffit d'avoir une mesure de distance par exemple entre deux images le nombre de pixels différents et on recherche l'image de la base de données la plus proche de celle qu'on veut identifier. Ca marche pas mal si la base de données est assez grande et c'est très facile à faire.

Est-ce que tu diras que le programme effectue une opération sémantique ?

Partager ce message


Lien à poster
Partager sur d’autres sites

J'interviens ici pour la dernière fois..
Il y aurait beaucoup de philo à développer sur ces sujets, mais depuis quelques pénibles épisodes astroufiens déjà anciens, j'ai compris que c'est un exercice particulièrement difficile à tenir sur un forum en général, et sur Astrouf en particulier.

Ce sont essentielement les propos de Searle (il n'est pas plus mon "gourou" que Penrose) qui donnent lieu ici à ce dialogue de sourds. Je ne comprend toujours absolument pas que l'on puisse contester son exercice de pensée. Sauf si on me prouve qu'un ordinateur - soyons fous - AVEC réseaux neuroniques est capable de s'émouvoir , c'est à dire de capter toute la sémantique de la poésie sublime d'un livre - tiens au hasard, par exemple – de Jean Giono, voire même d'en retranscrire l'émotion sensible sous une forme ou sous une autre : Images, commentaires, expressions artistiques..

Car c'est bien ça la "sémantique" rapportée à "l'intelligence humaine", à sa conscience. Pas seulement de savoir reconnaître un chat ou un raton laveur ..


Sur ce point précis je cite une réponse de Yan LeCun que les pointures sur le sujet doivent/devraient connaître. A toute fin utile je précise que ça date de mai 2015 hein :


Question : "La machine qui comprendra un texte n’existe pas encore?"

"Disons que c’est un peu un rêve, même si le but semble aujourd’hui relativement atteignable. Quelquefois les questions que l’on pose ne sont pas très compliquées (les heures d’ouverture d’un restaurant, par exemple), mais si l’information n’est pas structurée, ce ne sera pas facile de la trouver. Et une machine ne saura pas répondre à une question plus complexe, par exemple : "Antoine prend le planeur, le lance du balcon, puis va le chercher. Où est parti Antoine ?". Répondre à cette question requiert du sens commun: le fait que le planeur est un jouet, qu’il finira par atterrir dans la rue ou le jardin, que pour aller le chercher Antoine devra descendre des étages, etc. Nous devinons tout cela grâce à notre expérience du monde qui nous entoure."


Bref, pour Jean Giono c'est pour l'an 3000, peut être ...


Plutôt de se focaliser sur les propos de Searle et d'ergoter sur leur éventuelle obsolescence, j'aurais préféré que la discussion aborde les aspects que j'évoquais dans mon message suivant..

Je me cite donc : "Sauf que concilier la puissance de calcul des outils modernes avec la capacité d’apprentissage d’un système biologique n'est pas encore pour demain matin, voire même pour un peu plus tard .
Face à ces difficultés de réalisation, ces dernières années il semble que l'engouement a faibli quelque peu.

Néanmoins depuis 2014 on assiste au développement des nouvelles techniques de "Deep Learning" qui permettent de donner du sens à des données sous forme d’image, de son ou de texte.. mais les progrès sont encore modestes eu égard aux ambitions de départ.."
fin de citation

Justement, Yan LeCun est un des principaux artisans du Deep Learning, et je crois intéressant de rapporter ici certaines de ses considérations qui ne sont pas forcément en accord avec l'enthousiasme et les certitudes parfois affichées ici, par exemple sur la capacité des machines à apprendre "toutes seules" et à atteindre des pans entiers de la conscience humaine, voir même la dépasser.
Je précise encore que ces propos ne datent pas "de 15 ans", mais de juillet 2015 :


Question : " Le terme de « deep learning » évoque cependant l’idée que les machines peuvent apprendre"…

"Disons que l’on commence à avoir des techniques qui marchent à peu près, comme les réseaux neuronaux multi-niveaux. Mais il s’agit d’un apprentissage purement supervisé: on entraîne la machine à reconnaître l’image d’une voiture ou celle d’une table en lui montrant des milliers d’images et en la corrigeant systématiquement lorsqu’elle fait une erreur. Les animaux et les humains ne fonctionnent pas comme cela : nous découvrons le monde qui nous entoure de façon non supervisée. Aujourd’hui, l’apprentissage non supervisé reste un défi scientifique. Tant que l’on n’y sera pas parvenu, on ne pourra pas construire des systèmes vraiment intelligents, capables d’acquérir du sens commun."


Question : "Pourquoi l’intelligence artificielle suscite-t-elle un tel engouement aujourd’hui?"

"C’est un domaine qui a toujours connu des hauts et des bas. Une nouvelle catégorie de solutions apparaît, les chercheurs sont enthousiastes, il y a une montée en puissance et très souvent, après, l’intérêt retombe. On a appelé cela les « hivers » de l’intelligence artificielle. Depuis quatre ou cinq ans, l’intérêt monte très rapidement, en grande partie à cause de succès réels dans la reconnaissance de la parole ou des images. Il y a une série de mini-révolutions, notamment avec le « deep learning » et les réseaux neuronaux multi-couches, mais aussi grâce à des ordinateurs capables de grandes puissances de calcul, utilisant des processeurs graphiques conçus au départ pour le jeu vidéo"


L'avenir semble donc sourire au deep learning, mais Yann LeCun reste méfiant :


"On est dans une phase très enthousiaste, c'est très excitant. Mais il y a aussi beaucoup de bêtises racontées, il y a des exagérations. On entend dire qu'on va créer des machines intelligentes dans cinq ans, que Terminator va éliminer la race humaine dans dix ans… Il y a aussi de gros espoirs que certains placent dans ces méthodes, qui ne seront peut-être pas concrétisés. Des gens promettent la Lune, et c'est dangereux pour le domaine. L'IA a souvent souffert des attentes disproportionnées à son égard. On espère que, cette fois, la discipline ne sera pas victime de cette « inflation des promesses".

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Le générateur de blagues des deux distingués chercheurs de l'Université d'Edimbourg a encore une belle marge de progression...

je doit être un tantinet trop "computable", mais elle me font rire ces blagues...

Quel post mine de rien !! Question philo, j'attend la suite avec gourmandise !

Partager ce message


Lien à poster
Partager sur d’autres sites
ChiCyg: Si tu ne vois pas la différence entre un algorithme qui calcule bêtement une distance adhoc, et un algorithme qui résout un problème en extrayant du jeu d'entrée des représentations abstraites, je crois que je ne peux rien pour toi.

Vaufrèges:

quote:
"l'enthousiasme et les certitudes parfois affichées ici, par exemple sur la capacité des machines à apprendre "toutes seules" et à atteindre des pans entiers de la conscience humaine, voir même la dépasser."

Elle est bien bonne. Je ne veux pas parler pour les autres, mais en ce qui me concerne, je ne sais pas si tu as remarqué, mais y' avait des smileys après les phrases "enthousiastes".

Il ne faut pas se braquer comme ça; Comme le dit Alain Moreau, l' erreur est humaine - Il le dit beaucoup mieux que ça, évidemment :

quote:

Les plus brillants esprits (humains, pour commencer ) produisent une analyse et des conclusions sur les bases dont ils disposent à un instant donné : ce n'est pas faire offense à leur talent, voire leur génie, que d'admettre que 20 ans plus tard ils n'aboutiraient pas forcément aux mêmes conclusions avec des connaissances décuplées (il y a même fort à parier qu'ils en feraient encore meilleur usage que nous )
Si chaque grand nom de la science apporte sa pierre à l'édifice, aucun ne peut prétendre à la vérité ultime.

Bref, je pense que les conclusions négatives définitives "à la Searle-Penrose", construites sur des expériences de pensées, dans le domaine de l' IA, sont un petit poil prématurées.

[Ce message a été modifié par PascalD (Édité le 13-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Pour rejoindre Alain31, j'suis vachement limité aussi mais je pense (sic) aussi que la conscience nous appartient, en dehors de nous il n'y'a rien et ce n'est pas une IA qui changera quoique ce soit.

Autrement Alain 31, non, l'homme cherchera toujours à se surpasser, par dénis de ce qu'il est, liée à son insatisfaction perpétuelle, l'homme est un adolescent impatient qui adore casser ses jouets pour en faire d'autres...

[Ce message a été modifié par jmpg86 (Édité le 14-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites

Juste pour préciser mon propos..

Concernant "l'enthousiasme" sur la capacité des machines à apprendre "toutes seules"..

PascalD en réponse plus haut à certaines de mes réserves :

"Les algos de d'apprentissage non supervisé sont une invention assez récente (une paire d'année). Il y a peu personne n'aurait parié un kopek sur les réseaux de neurones, maintenant toute la communauté de l' IA est à fond là dessus.
Depuis l'avènement de 1) le web et 2) le Cloud, ça ne coute plus grand chose. Et grace à l' invention des algos d'apprentissage sans supervision, il n' y a plus besoin d'expert. Cf la vidéo dont j'ai posté le lien."

Ce que dit Yan LeCan sur ce même sujet en juillet 2015:

"Aujourd’hui, l’apprentissage non supervisé reste un défi scientifique. Tant que l’on n’y sera pas parvenu, on ne pourra pas construire des systèmes vraiment intelligents, capables d’acquérir du sens commun."


Se révèle comme un petit hiatus entre les deux discours.
On peut toutefois concevoir l'augure d'un "apprentissage non supervisé" dans quelques années, disons que l'invention des algos d'apprentissage est en cours..


Concernant "l'enthousiasme" sur la capacité des machines à atteindre des pans entiers de la conscience humaine, voir même la dépasser, c'est Tournesol que je vise .

Tournesol évoquant l'émergence de la conscience :

"Le but de mon propos était surtout de dire que si on commence à argumenter que rien ne peut émerger d'un réseau de neurones suffisamment grand, alors il faut se poser des questions sur le cerveau humain lui-même"

Bref, il suffirait donc de connecter le même nombre de neurones artificiels que celui du cerveau humain pour faire émerger la même conscience. C'est un peu optimiste.

Il semble qu'il existerait quand même un gros problème qualitatif si on compare les capacités respectives d'un neurone du cerveau humain et d'un neurone artificiel, non? D'ailleurs certain auteurs préfèrent utiliser le terme "d'automate cellulaire".
Comme un véritable neurone, le "neurone" artificiel reçoit des informations venant de plusieurs sources et produit un signal en sortie fonction d'une combinaison de ces entrées.
Sauf que dans un cerveau un seul neurone possède en moyenne 10000 connexions et reçoit des signaux de plusieurs centaines de milliers de synapses.
Pour info 1mm3 de cortex contient un 1 milliard de connexions..


Partager ce message


Lien à poster
Partager sur d’autres sites
Vaufrèges,
quote:
Se révèle comme un petit hiatus entre les deux discours.

Justement, l' équipe de Andrew Ng à Stanford (http://www.andrewng.org/ , c'est en anglais mais estime toi heureux, ça aurait pu être du chinois, vu qu'il bosse aussi pour Baidu ) a fait une avancée significative concernant l' apprentissage non supervisé. ça reste un domaine actif de recherche, c'est vrai, donc il ne faut pas conclure trop vite, mais par rapport à la situation, disons, de 2009 les choses ont vraiment changées dans ce domaine.

quote:

[Tournesol]"Le but de mon propos était surtout de dire que si on commence à argumenter que rien ne peut émerger d'un réseau de neurones suffisamment grand, alors il faut se poser des questions sur le cerveau humain lui-même"
[Vaufreges]Bref, il suffirait donc de connecter le même nombre de neurones artificiels que celui du cerveau humain pour faire émerger la même conscience. C'est un peu optimiste.

((Non A) implique (Non B)) n' implique pas (A implique B).

quote:
Il semble qu'il existerait quand même un gros problème qualitatif si on compare les capacités respectives d'un neurone du cerveau humain et d'un neurone artificiel, non? D'ailleurs certain auteurs préfèrent utiliser le terme "d'automate cellulaire".
Comme un véritable neurone, le "neurone" artificiel reçoit des informations venant de plusieurs sources et produit un signal en sortie fonction d'une combinaison de ces entrées.
Sauf que dans un cerveau un seul neurone possède en moyenne 10000 connexions et reçoit des signaux de plusieurs centaines de milliers de synapses.
Pour info 1mm3 de cortex contient un 1 milliard de connexions..


ça, c'est une différence quantitative. ça se règle en augmentant les capacités du systèmes, et/ou le temps de calcul.
Est-ce que les mécanismes de rétroactions globaux (les endorphines) ne seraient pas plus problématiques ? Simuler un cerveau tout seul (façon "Boltzmann brain") risque de ne pas être suffisant pour modéliser ce qui se passe dans la tête d'un être vivant évolué.


Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Sauf que dans un cerveau un seul neurone possède en moyenne 10000 connexions et reçoit des signaux de plusieurs centaines de milliers de synapses.
Pour info 1mm3 de cortex contient un 1 milliard de connexions..

Vertigneux. J'avais lu un jour qu'en pleine phase d'apprentissage du langage, le cerveau hyper plastique d'un petit enfant fabriquait plus de 1000 nouvelles connections nouvelles par seconde !...

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
ChiCyg: Si tu ne vois pas la différence entre un algorithme qui calcule bêtement une distance adhoc, et un algorithme qui résout un problème en extrayant du jeu d'entrée des représentations abstraites, je crois que je ne peux rien pour toi.

Non, non c'est trop facile, là !
1) J'entre un jeu d'images dans le logiciel et je reçois en retour la localisation des piétons et des voitures sur les images.

2) J'entre un jeu d'images dans le logiciel et je reçois en retour les positions et les chaînes de caractère des textes présents dans ces images,

3) J'entre un jeu de résultats d'analyse médicales dans le logiciel et je reçois en retour la liste des porteurs du syndrome de machin-truc,

4) J'entre un jeu d'images et je reçois en retour la position et la classe des galaxies présentes sur l'image.

Dans quel(s) cas l'algorithme a-t-il extrait du jeu d'entrée des "représentations abstraites" ?

S'il n'y en a aucun, donne-moi un exemple "d'extraction de représentations abstraites", s'il te plaît.

Partager ce message


Lien à poster
Partager sur d’autres sites
Bon, je résume :

Les "IA" battent l'Homme aux Echecs et bientôt au Go et au Bridge, parce que c'est juste une problématique calculable.

Les "IA" crééront-elles un jour quelque chose d'aussi absolu et en même temps "impensable", "inqualifiable" que le Requiem de Mozart ou la Visitation de Pontormo ?

S

Partager ce message


Lien à poster
Partager sur d’autres sites
ChiCyg:
quote:
S'il n'y en a aucun, donne-moi un exemple "d'extraction de représentations abstraites", s'il te plaît.

Tes exemples sont des "quoi", et le débat porte sur le "comment". Regarde les présentations d'Andrew Ng, il explicite la différence de fonctionnement entre les algos de filtrage purs et les algos d'extraction de caractéristiques plus ou moins abstraite (selon la profondeur du réseau de neurones). Sinon, il y a aussi l' approche de Numenta (où ce qui constitue le système n'est pas un réseau de neurones, mais un truc inspiré de la biologie qu'ils appellent "Hierarchical Temporal Memory", qui va également au delà du simple filtrage par les algos classiques de traitement du signal.
Même si les abstractions qui sont extraites par ces dispositifs sont encore assez peu abstraites (essentiellement, ça reste dans le domaine de la perception, genre "bras", "patte", "pomme", etc), personne ne peut encore affirmer que ça n'ira pas plus loin.

Encore une fois, tout ça est encore balbutiant, peut-être que c'est une impasse et qu'on ira jamais plus loin que les résultats actuels, mais c'est une piste suffisamment intrigante pour douter de ceux qui affirment péremptoirement l' impossibilité définitives des IA (fortes ou faibles). Surtout en utilisant des arguments affirmant l' impossibilité de construire des systèmes tels que ceux dont il est question plus haut. En science, quand une spéculation est contredite par les faits, elle est déclarée fausse. Pourquoi ça ne serait pas vrai aussi en philosophie ?

Superfulgur: Bonne question. C'est clairement pas encore demain la veille, quoi que les systèmes de composition algorithmiques aient fait des progrès significatifs ces dernières années. http://www.hexahedria.com/2015/08/03/composing-music-with-recurrent-neural-networks/

[Ce message a été modifié par PascalD (Édité le 15-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
En science, quand une spéculation est contredite par les faits, elle est déclarée fausse. Pourquoi ça ne serait pas vrai aussi en philosophie ?

J'adore!

Partager ce message


Lien à poster
Partager sur d’autres sites
PascalD :
quote:
Tes exemples sont des "quoi", et le débat porte sur le "comment".
Trop facile, là aussi : je croyais que tu exécrais la philosophie, là tu fais dans le sophisme, voire le jésuitisme . Je n'ai toujours pas l'ombre du début d'un soupçon d'exemple .

Tiens, j'ai trouvé le "Duda" sur le ouèbe, PascalD et Tournesol faites moi le plaisir de lire au moins l'introduction et au moins jusqu'à la section 1.3 : http://cns-classes.bu.edu/cn550/Readings/duda-etal-00.pdf

Ces anglo-saxons ont quand même le génie (mal partagé par notre génie latin - question de neurones ? ) de présenter les problèmes d'une manière didactique, compréhensible et pragmatique. C'est l'exemple de l'usine de poissons qui est parfait pour poser le problème sur de bonnes bases bien concrètes et odorantes .

Pas sûr que la distinction de Searle entre "syntaxique" et "sémantique" soit pertinente. En tous cas, Searle a tout faux quand il écrit dans l'article cité plus haut dans ce fil : http://www.larecherche.fr/savoirs/autre/deux-biologistes-physicien-quete-ame-01-05-1996-87615 :

quote:
Le problème est que le fonctionnement du système visuel est étonnamment compliqué. Le simple fait de reconnaître le visage d'un ami au milieu d'une foule nécessite un processus d'une complexité qui excède largement nos connaissances.
N'importe quel appareil photo est capable d'extraire en quelques fractions de secondes les visages d'une image et même de détecter les sourires ...

De mon point de vue, cette erreur d'appréciation remet en cause sa distinction "sémantique" / "syntaxique" et par voie de conséquence une grosse partie de son article.

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
N'importe quel appareil photo est capable d'extraire en quelques fractions de secondes les visages d'une image et même de détecter les sourires ...

Reconnaître la présence d'un visage est moins compliqué que de différencier deux visages ou de reconnaître un visage de manière nominative.


Pour rebondir sur le débat si dessus, et ce qui me dérange parfois dans ton discours ChiCyg, c'est le côté inquisiteur donnant l'impression que tu décrètes que tel champ de recherche est voué à l'échec.

Peut-on construire des IA fortes ? Je n'en sais rien, et je dis que la question est loin d'être triviale, et que pour les raisons que j'ai donné plus haut, seule la pratique nous dira ce qu'il en est ! Que des gens cherchent dans ce sens est heureux, ça fait progresser.

Dans mon métier, il y a des sujets auxquels je ne crois pas. Je ne dis jamais aux gens : "Ne cherchez pas là, c'est débile, il n'y a rien à trouver".

Partager ce message


Lien à poster
Partager sur d’autres sites
Cette discussion, quoique aussi vieille que le Golem est fascinante...

Comme vous j'ai pensé à nos appareils photo, qui détectent nos visages, nos yeux...

Et ensuite ?

Une IA dit : "Voici deux personnes. L'une est âgée et souriante, l'autre est jeune et triste."

Une IA dira t-elle un jour "Voici deux personnes. L'une est âgée et souriante, l'autre est jeune et triste. Cette tristesse est bouleversante... Quel est le vécu de cette personne, que lui est-il arrivé ? Je me sens tellement triste pour elle... Comment l'aider ? etc etc..." Faire ça, oui, une IA saura le faire un jour, mais le PENSER vraiment ?

En écrivant ça, je me dis qu'il y a quelque chose d'irréductible, dans la nature humaine, quelque chose inscrit en nous par strates successives, depuis près de quatre milliards d'années, quelque chose fondé par mille milliards d'expériences animales oubliées, et je me dis (à tort peut-être) que non, aucune IA n'atteindra jamais à "çà", nous serons toujours dans la copie, la copie parfaite, peut-être, mais la copie, l'imitation.

Les Demoiselles d'Avignon peuvent être reproduites à la perfection par mille peintres doués aujourd'hui, et un peintre IA le fera aussi à la perfection.

Oui, mais en 1907, c'était une création absolue, impensée, fruit d'un homme singulier, unique.

Je vous livre juste ça à la lecture de ce post passionnant (et incompréhensible pour moi dans ses attendus techniques, sauf que, étant un être humain et pas une IA, je comprends l'enjeu posé ici, sans comprendre son soubassement technico-scientifique). Ca aussi, j'imagine, c'est le propre de l'homme...

S


Partager ce message


Lien à poster
Partager sur d’autres sites
Ah Tournesol, je préfère franchement quand tu t'exprimes de cette façon ! Si tu ne supportes pas mon "côté inquisiteur" (qui, de mon point de vue, n'est que l'expression d'un scepticisme salutaire ) je ne supporte pas tes arguments d'autorité et tes affirmations péremptoires sans support objectif.

La question qui nous sépare, là : "est-ce que d'un réseau de neurones suffisamment complexe, même artificiel, va émerger quelque chose que ne peut pas calculer un programme classique ?"

Je ne sais pas si les réseaux de neurones biologiques ont cette propriété, mais les réseaux de neurones artificiels à partir d'un vecteur d'entrée (une image, un son, ...) produisent un vecteur de sortie de dimensionnalité plus réduite. Les vecteurs de sortie seront d'autant plus proches que les images qui les ont produits sont proches ce qui permet de classer les images et de les regrouper dans des classes. Rien d'émergent là dedans. Et des résultats équivalents sont obtenus avec un réseau de neurones ou par une autre méthode.

Reconnaître la présence d'un visage n'est pas plus compliqué qu'identifier des visages ou détecter des sourires, ou une attitude menaçante.

Super, souvent on découvre que les problèmes qu'on se posait n'en étaient pas ou alors étaient mal posés. Pearle pensait, comme toi, je suppose et moi en tous cas, que reconnaître un ami au milieu d'une foule était une tâche extrêmement complexe preuve d'une extrême sophistication de notre système de perception visuelle.

Quand on voit la simplicité déconcertante des algorithmes de nos compacts, c'en est presque déprimant (la méthode, je crois, la plus utilisée est celle de Viola et Jones https://fr.wikipedia.org/wiki/Méthode_de_Viola_et_Jones ).

Ca veut simplement dire que l'activité de reconnaissance ou d'identification (de formes, de visages, de sons, de caractères, de n'importe quelles catégories) relève d'algorithmes très simples et ne permettent pas d'expliquer la "conscience".

[Ce message a été modifié par ChiCyg (Édité le 15-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
P Cygni :

"Super, souvent on découvre que les problèmes qu'on se posait n'en étaient pas ou alors étaient mal posés. Pearle pensait, comme toi, je suppose et moi en tous cas, que reconnaître un ami au milieu d'une foule était une tâche extrêmement complexe preuve d'une extrême sophistication de notre système de perception visuelle."

J'ai fait le test...

C'est proprement hallucinant la capacité du cerveau humain à "décrypter" les informations "données" par un autre être humain situé à une distance où il se réduit en principe à quelques "bits" d'information...

C'est une faculté qui nous vient du fond des âges, ça, pour le coup...

Si on créait aujourd'hui un homme ex nihilo, cette faculté quasi magique n'existerait pas, personne d'ailleurs penserait à l'implémenter...

Plus je nous lis, plus j'ai le sentiment qu'une IA ne ressemblera jamais vraiment à un être humain...

Mais c'est juste une intuition comme ça, encore une fois

S

Partager ce message


Lien à poster
Partager sur d’autres sites

Personne ne met en doute la puissance de calcul d'un ordinateur, puissance bien supérieure au cerveau. Un ordi est capable d'effectuer un très grand nombre d'opérations en un temps extrêmement court.

Mais pour autant peut-on imaginer qu'un jour une machine "pense" ?
On en revient à la question du "computable" ou "non computable"..

Pour qu'une machine pense il faudrait qu'elle puisse intuitivement appréhender un sens. Or elle ne connaît que la pensée discursive, pas la pensée intuitive. Pour que des éléments signifiants soient manipulés, il faudrait que le sens puisse être entièrement formulé dans des propositions de langage "logique". Le prodige consisterait à ramener toutes les opérations de la pensée humaine à une forme de calcul, c'est à dire traduire tous les énoncés du langage naturel dans le langage logique.

Pour en revenir à l'exemple d'un texte de Jean Giono que je citais plus haut, la formalisation des énoncés qu'il contient serait pour le moins un écueil difficile à surmonter : Jugements esthétiques, jugement de valeur morale, appréciations subjectives de sentiments, rêveries, énoncés métaphysiques, métaphoriques, poétiques, propositions contenant des probabilités, des suppositions...
Et j'aurais pu choisir Proust .


PascalD > ".. c'est une piste suffisamment intrigante pour douter de ceux qui affirment péremptoirement l' impossibilité définitives des IA (fortes ou faibles). Surtout en utilisant des arguments affirmant l' impossibilité de construire des systèmes tels que ceux dont il est question plus haut. En science, quand une spéculation est contredite par les faits, elle est déclarée fausse. Pourquoi ça ne serait pas vrai aussi en philosophie ?"

Perso, comme beaucoup d'autres il est vrai que je doute sérieusement de l'avènement l'IA forte, mais je ne crois absolument pas qu'on ait besoin d'arguments philosophiques pour ça . A moins que tu considères comme tels les doutes de Yan LeCun que je rapporte plus haut, voire ceux que j'exprime ci-dessus.. Auquel cas, comme Monsieur Jourdain faisait de la prose sans le savoir, Lecun et moi faisons de la philo sans le savoir .

La philosophie est une réflexion sur toutes les formes d'activités et expériences humaines. Depuis plus de deux milles ans cette réflexion se construit, se transforme, et évolue, l'expérience humaine s'étant quelque peu enrichie. Mais manifestement on constate que l'histoire ne justifie pas grand chose et n'est pas toujours lisible ni interprétable par tous. Aujourd'hui et à lire certains, on a même parfois l'impression que nous tendons à perdre jusqu'au sens de ce que représente la philo.
Mais le comble serait de l'opposer à la science !
A minima et sur ce plan, la philosophie peut aider à faire le lien entre ce que nous sommes et ce que nous savons. Le savoir objectif est souvent abstrait. D'une manière ou d'une autre il faut qu'il soit rattaché au concret de nos vies et à nos subjectivités. Le danger serait que la vie subjective et le savoir n'interagissent pas l'un sur l'autre, au moins pour l'essentiel.

[Ce message a été modifié par vaufrègesI3 (Édité le 15-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Il ne me semble pas qu'une IA puisse être réellement consciente sans être vivante, ceci pour être en accord avec les arguments de la Partie Antithèse II.
On pourrait pousser cette partie pour dire que le même ingrédient non-calculable qui est à l'origine de la conscience est aussi à l'origine de la Vie, qui n'est donc pas calculable non plus dans son entièreté.
Et on retombe dans le même problème, à savoir que, même si 99% des phénomènes associés a la Vie sont simulables par ordinateur, il y a une partie qui ne l'est pas, ou qui ressemble à une machine de Turing rétro-causale.
Penrose ne peut pas avoir raison juste dans le cas de la conscience humaine prise isolément. La conscience fait partie du Continuum de l'Evolution et avant cela de la naissance de la Vie (et avant cela des conditions dites Anthropiques). Donc soit il a tord sur tout, et il n'y a aucun problème à imaginer une IA forte dans le futur, au même titre qu'une Vie Synthétique, soit sa conjecture est vraie et il y a tout le tricot qui vient avec quand on tire sur le fil. Il ne peut pas s'arrêter arbitrairement au cas de l'Homo sapiens.

Partager ce message


Lien à poster
Partager sur d’autres sites
... soit sa conjecture est ni vraie ni fausse mais tout simplement mal posée, en particulier parce qu'on n'a pas de définition de la conscience. A moins qu'on ne se satisfasse de celle de Searle :
quote:
«conscience» se réfère aux états mentaux qui commencent en général lorsque nous nous éveillons d'un sommeil sans rêve et se poursuivent jusqu'à ce que nous nous endormions de nouveau ou tombions dans le coma ou mourrions, ou devenions, d'une manière ou d'une autre, «inconscient».

Il me semble difficile de lancer des conjectures sur un concept aussi flou, et qui se mord la queue, non ?

Partager ce message


Lien à poster
Partager sur d’autres sites
ChiCyg:
quote:
Je ne sais pas si les réseaux de neurones biologiques ont cette propriété, mais les réseaux de neurones artificiels à partir d'un vecteur d'entrée (une image, un son, ...) produisent un vecteur de sortie de dimensionnalité plus réduite. Les vecteurs de sortie seront d'autant plus proches que les images qui les ont produits sont proches ce qui permet de classer les images et de les regrouper dans des classes. Rien d'émergent là dedans. Et des résultats équivalents sont obtenus avec un réseau de neurones ou par une autre méthode.

On passe rapidement sur l'erreur flagrante concernant les dimensionnalités (dans un autoencodeur, la dimension de l' entrée et de la sortie est strictement la même. Dans un réseau de neurones, rien ne contraint la dimension de sortie).
On va passer aussi rapidement sur l' erreur flagrante concernant les distances. Dans un réseau non linéaire, les distances des entrées et de sorties n'ont strictement rien à voir : deux signaux d'entrée proches peuvent donner des sorties très éloignées. C'est ce qui permet de repérer des anomalies dans un tas de données à première vue semblables (parfois mieux que si les données sont traitées par un humain).
L' argument d'équivalence entre deux boites noires (un réseau de neurones et un algo de traitement du signal) est spécieux : un homme et une calculatrice donnent souvent le même résultat lors du calcul de 2+2, ce n' est pas pour ça qu'ils sont équivalents.
Reste l' argument "Rien d'émergeant". Qui ne s'appuie sur rien.

https://mitpress.mit.edu/sites/default/files/titles/content/alife13/ch048.html

ChiCyg:

quote:
"Trop facile, là aussi :"

En résumé : Paille, poutre, oeil.

[Ce message a été modifié par PascalD (Édité le 15-01-2016).]

[Ce message a été modifié par PascalD (Édité le 15-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
ChiCyg:
quote:
" ... soit sa conjecture est ni vraie ni fausse mais tout simplement mal posée, en particulier parce qu'on n'a pas de définition de la conscience… "

Justement, le fait qu'il n'y ait pas de telle définition est assez révélateur.
Une première explication est celle de Penrose qui dit qu'il n'y a pas d'Algorithme qui puisse produire la Conscience sur un ordinateur. Donc on ne peut pas formuler de définition algorithmique telle que je l'ai fait plus haut pour le Darwinisme. D'où évidemment le flou dans les définitions proposées.

Par contre, si l'Algorithme existe, certains diront qu'il doit permettre une projection mentale dans le temps, et ceci peut être simulé par algorithme. D'autres diront que la Conscience utilise un algorithme auto-référentiel, comme un miroir qui renvoie sa propre réflexion à l'infini. Il y a des chercheurs qui utilisent cette approche (Machine self-reference at the University of Delaware https://www.eecis.udel.edu/~case/self-ref.html . Dans tous les cas, cette définition de la conscience n'apparaît pas comme triviale, et l'Algorithme qui la réalisera risque de ne pas être simple.
Ce genre de raisonnement est utilise par Penrose. Il prend l'exemple de mathématiciens qui cherchent sans succès et pendant des centaines d'années la réponse, ou une preuve, à une conjecture, parfois en s'aidant de gros calculateurs. La seule chose que l'on puisse dire alors, est que si cette preuve existe, étant donnée qu'elle a été cherchée pendant des années par les esprits les plus brillants, elle risque d'être extrêmement compliquée.

[Ce message a été modifié par Richard Guillaume (Édité le 15-01-2016).]

[Ce message a été modifié par Richard Guillaume (Édité le 16-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant