ChiCyg

Membre
  • Compteur de contenus

    2 707
  • Inscription

  • Dernière visite

    jamais
  • Last Connexion

    Soon available - 43960

Messages posté(e)s par ChiCyg


  1. Comme je l'ai rapporté plus haut, dans le papier cette planète aurait un demi grand-axe entre 400 et 1500 UA avec une excentricité entre 0,4 et 0,9 une inclinaison de l'ordre de 30° et une masse supérieure à une masse terrestre, par exemple 10.

    En partant de Neptune biver plus haut (faut lire ) a trouvé une magnitude 16 à 200 UA et 23 à 1000 UA.

    Donc, suivant les cas elle peut se trouver aujourd'hui :
    . à 2900 UA du soleil (si elle est à l'aphélie avec un demi grand-axe de 1500 UA et une excentricité de 0.9) et elle aurait alors une magnitude de 25.
    . ou à 40 UA (si elle est au perihélie avec un demi-grand-axe de 400 UA et une excentricité de 0.9) et on l'aurait repérée depuis longtemps .

    On voit que la plage de valeurs est disons assez importante (plus que du temps de Le Verrier ...)


  2. PascalD, très intéressant le lien que tu as donné est très intéressant : http://lukemuehlhauser.com/wp-content/uploads/Reggia-The-rise-of-machine-consciousness-Studying-consciousness-with-computational-models.pdf
    Tu l'as lu ? je n'ai lu que le début. Ce qui me plaît c'est la façon dont cette "revue" situe le débat philosophico-scientifique autour de la conscience, je suis agréablement surpris que tu adhères à ce genre de débat hautement philosophique .

    C'est vrai que c'est un peu mal parti avec la définition de la conscience :

    quote:
    [...] we will simply define consciousness to be the subjective experiences/awareness that one has when awake, following earlier suggestions that a more precise definition, given our currently inadequate scientific understanding of consciousness, is best left to the future

    Soit : "... nous définirons simplement la conscience comme l'expérience/la prise de conscience subjective que chacun fait quand il est éveillé, suivant en cela l'idée qu'il est mieux de laisser au futur une définition plus précise de la conscience, étant donnée l'inadéquation de notre compréhension scientifique."

    Ca pose tout de même un problème comment étudier quelque chose qu'on définit aussi mal : en gros, "la conscience c'est quand on est éveillé".

    Pourquoi voudrait-on reproduire la conscience sur des machines ? L'auteur donne deux réponses possibles :

    quote:
    [...] to improve our scientific understanding of the nature of consciousness.
    [...] the technological goal of creating a conscious machine

    Soit :
    ". pour améliorer notre compréhension scientifique de la nature de la conscience,
    . [dans] le but technologique de créer une machine consciente."

    Si on reprend la définition de la conscience qui a été donnée je vois mal comment on peut la comprendre scientifiquement. Quant à la seconde raison "créer une machine consciente" ça me fait irrésistiblement penser au golem avec un mélange d'ironie amusée et d'inquiétude. On peut donc émettre quelques doutes sur ces deux objectifs sans être pour autant un sale créationniste .

    La partie 2.1 "Perspectives philosophiques" m'a bien intéressée avec le schéma de la figure 1 qui distingue d'abord dualisme (distinction entre le monde de l'esprit et celui de la matière) et monisme (un seul mode d'existence).

    Dans le monisme, on distingue :
    . l'idéalisme, pour lequel n'existe qu'un seul univers non physique ; l'univers physique est imaginaire, une sorte de rêve, ce qui mène au solipsisme (la seule certitude est que j'existe),
    . le matérialisme pour lequel l'esprit conscient est un phénomène qui fait partie du monde matériel et physique et que donc la conscience a une explication scientifique qui peut être découverte.

    Mais le matérialisme lui-même se décompose en plusieurs "perspectives" :

    . le comportementalisme qui réduit l'individu à son interaction avec son environnement et son adaptation par l'apprentissage. De ce fait, il n'est plus nécessaire d'expliquer la conscience,

    . la théorie de l'identité esprit-cerveau pour laquelle tout état mental se réduit à un état physique du cerveau,

    . et enfin le fonctionnalisme (ou computationnalisme) pour lequel les états mentaux sont dus à leur fonctionnalité. "Les états mentaux conscients sont des états fonctionnels (ou computationnels)". Une main est donnée comme exemple : "c'est un objet physique mais qui peut exister dans différents états fonctionnels : en s'agitant pour indiquer qu'on part, en montrant le poing pour signifier la colère, en pointant une direction ou en approuvant les pouces vers le haut". Dans cette vision :

    quote:
    computer hardware replaces the brain as a physical substrate, while executing software with similar functionality serves as an artificially conscious mind

    Soit "la partie matérielle du calculateur remplace le cerveau comme substrat physique, alors que l'exécution du programme avec une fonctionnalité similaire sert d'esprit conscient artificiel."

    Si je peux me permettre un commentaire, il y a là comme un parfum de dualisme un monde physique et un monde fonctionnel ou computationnel, mais bon, c'est sûrement que je ne comprends rien ...

    Bref, ça me laisse la furieuse impression, n'en déplaise à PascalD et à Tournesol, qu'à la base de toutes ces "perspectives" il y a des choix métaphysiques plutôt que rationnels.


  3. vaufrègesI3 :
    quote:
    Les neurosciences sont constituées de deux sous-catégories: La première appartient particulièrement à la biologie, la chimie, les mathématiques et la bio-informatique, c'est la neurobiologie. La seconde catégorie est celle représentée par Stanislas Dehaene.
    Il s'agit bien de deux formations différentes et de deux approches différentes.

    Dehaene a d'abord une formation en mathématiques, non ?
    Et son exposé s'appuie beaucoup sur l'imagerie cérébrale. Tu la classes dans quelle sous-catégorie ?

  4. Ce matin, Jean Audouze sur France Cul : http://www.franceculture.fr/emission-l-invite-des-matins-sommes-nous-en-train-de-faire-des-plans-sur-la-comete-ralentissement-de
    Le parallèle qu'il fait avec la découverte de Neptune par Le Verrier me parait pas tout à fait exact. La perturbation calculée par Le Verrier était beaucoup plus précise et permettait de situer la planète perturbatrice. Ici, c'est un peu différent, ce sont les modèles qui permettent de supputer la présence d'une éventuelle planète dont la masse et les paramètres de l'orbite sont très peu contraints, et encore moins sa position actuelle.

    En revanche vers la 6ème minute, Audouze insiste sur les enjeux de fierté nationale : cette planète permettrait de remettre dans le ciel une 9éme planète américaine après le déclassement de Pluton auquel les américains étaient très opposés ...


  5. Ouais, mais en même temps de même que l'étude de Mike Brown et sa bande ne prouve pas l'existence de cette planète, je ne vois pas comment l'étude de Nice prouverait qu'elle est fausse. De toutes façons, les américains notent bien les limites de leur étude ce qui, une fois de plus, contraste avec la publicité qui en a été faite ...

    Seul juge de paix l'observation, quoique ... on peut très bien trouver quelque chose, mais pas tout à fait assez massif ou pas vraiment sur la bonne orbite, ou ... genre "c'est pas sûr mais c'est quand même peut-être"


  6. J'essaie de résumer l'article http://iopscience.iop.org/article/10.3847/0004-6256/151/2/22/meta

    Tout part de l'observation que les 6 objets connus ayant un demi-grand axe de leur orbite supérieur à 250 UA (dont Sedna) ont des longitudes de leur périhélie proches (les points rouges de la figure 2), c'est à dire que les points où ces objets approchent le plus du soleil ne sont pas uniformément répartis autour du soleil comme le voudrait le hasard mais regroupés, alors que les objets plus proches (moins de 50 UA) ont leurs périhélies réparties uniformément autour du soleil.

    Les auteurs estiment que ce regroupement n'est pas un artefact, par exemple le fait d'avoir recherché ces objets dans une région particulière du ciel.

    Leurs simulations montrent qu'un objet "perturbateur" pourrait expliquer ce rapprochement des périhélies. Les caractéristiques de l'objet et de son orbite sont assez lâches : plutôt au delà d'une masse terrestre (par exemple 10), une excentricité entre 0,4-0,5 et 0,8-0,9, un demi-grand axe entre 400 et 1500 UA et une inclinaison plutôt faible de l'ordre de 30°.

    Ils notent que leur hypothèse n'explique pas le regroupement des périhélies observés sur les objets entre 150 et 250 UA, ni le manque d'objets observés avec des périhélies de 50 à 70 UA. Enfin ils essaient de justifier la présence d'un objet de 10 masses terrestres loin de toute zone de formation des planètes en supposant qu'il s'agit du noyau d'une (future) planète géante expulsé au moment de la formation du système solaire.


  7. Drame shakespearien si cet objet est observé : planet or not planet ? that is the big question
    Si je comprends bien, s'il existe, ce corps n'a pas bien fait le ménage le long de son orbite vu que c'est par la présence de corps plus petits que son existence est inférée etpi son orbite loin du plan de l'écliptique rend son appartenance au système solaire un rien douteuse, en revanche sa masse attendue de 10 masses terrestres ferait pencher la balance (si j'ose dire) du côté de l'élection au titre de 9ème planète.

    C'est le genre de discussion que j'adore, faudra sûrement réunir la commission de l'UAI pour qu'un conclave tranche la question et qu'un immense débat enflamme l'opinion , rien que pour ça il faut vraiment souhaiter qu'elle soit confirmée


  8. dg2, je serais assez étonné qu'un objet ayant un trou noir en son centre puisse être le siège de réactions nucléaires dans les couches entourant ce trou noir. La pression nécessaire pour entretenir les réactions nucléaires devraient propulser efficacement la matière à l'intérieur du trou noir, non ?

    J'ai cru comprendre que les encore hypothétiques objets de Thorne-Zytkow étaient supposés avoir une étoile à neutrons en leur centre, pas un trou noir.

    Pour répondre à la deuxième question, un objet soumis à la seule gravité sans rotation est de forme sphérique comme l'eau de la mer à la surface de la terre. Si l'objet tourne, sa forme s'écarte de plus en plus d'une sphère et est aplatie aux poles, comme la terre, le soleil ou Jupiter.


  9. Cher PascalD, si je t'ai proposé l'article de l'INRIA, c'est justement du fait de la phrase que tu soulignes. J'ai écrit : "l'introduction du hasard ne change rien à l'affaire le "hasard" est utilisé avec ou sans "neurones"". Je ne te prête pas d'intentions perverses, moi, c'est que j'ai dû mal m'exprimer ... Le hasard est utilisé par exemple dans la méthode de Monte-Carlo pour des modèles comme des modèles d'univers ou même pour établir la carte du fonds diffus cosmologique. Les algorithmes génétiques ou ceux utilisant le hasard restent des algorithmes avec ou sans neurones artificiels.

    Autrement dit, si "quelque chose" comme la "conscience" peut émerger d'un réseau de neurones artificiels, alors ce quelque chose peut émerger d'un algorithme, ce que je ne crois pas.

    J'ai écouté le premier des cours de 2010 de Stanislas Dehaene indiqués par brizhell sans té , ici : http://www.college-de-france.fr/site/stanislas-dehaene/course-2010-01-05-09h30.htm
    J'ai été un peu déçu par les 45 premières minutes où la conscience dont il cause est liée aux illusions visuelles : "j'ai conscience (ou pas) de voir le point jaune". C'est effectivement intéressant et pour le coup, ça se prête bien à des mesures et à une modélisation, mais je peux imaginer sans peine qu'un logiciel de traitement de caractères soit "victime" d'illusions en "croyant" voir un visage là où il n'y en a pas ou au contraire en ne détectant pas un visage pourtant présent et malgré cela je ne pense pas que le logiciel soit "conscient" de voir un 'A' ou un 'Z'.

    Cette définition de la conscience, la "conscience" de la présence d'un stimulus, se prête effectivement bien à une exploration objective en regardant les zones du cerveau qui s'activent. Par exemple la "vision aveugle" est un phénomène assez troublant qui fait que quelqu'un n'a pas conscience de voir alors qu'il peut désigner la direction d'une lumière, donc qu'il voit. Ca s'explique assez bien, et depuis longtemps me semble-t-il, par l'observation que, dans le cerveau, la même information est traitée en parallèle par des voies différentes, une rapide "inconsciente" et une plus lente et "consciente". Si on prend cette définition de la conscience, je pense qu'on pourra montrer que les mammifères, ou au moins les primates, ayant des structures cérébrales voisines de celles des humains ont eux-mêmes cette "conscience". Je trouve cette notion de "conscience" restrictive.

    Stanislas Dehaene s'en explique à partir de la 46ème minute et critique différentes définitions de la conscience ce qui m'a beaucoup intéressé. Disons que je suis plutôt en phase avec le "problème difficile" de David Chalmers que rejette Stanislas Dehaenne un peu rapidement à mon goût. Son hypothèse est que la synthèse des "problèmes faciles" peut conduire à une compréhension du "problème difficile".


  10. PascalD, si tu pouvais ne pas porter de jugement moral sur mon comportement, je pense que ça ne nuirait pas à la clarté du débat .

    C'est vrai il y a une nuance entre ce que j'ai écrit sur ton point de vue "quelque chose peut émerger d'un réseau" et ce que tu exprimes "rien ne permet de penser que quelque chose n'émerge pas d'un réseau" mais je ne pense pas que ça fausse radicalement le débat.

    Pour ma part, je maintiens que (pour inverser ta formulation prudente) "rien ne permet de penser que quelque chose puisse émerger d'un réseau de neurones artificiels" pour la simple et bonne raison que rien ne permet de penser que quelque chose puisse émerger d'un algorithme et que les réseaux de neurones artificiels, qu'on le veuille ou non, ne sont rien de moins ni de plus que des algorithmes.

    Je dis "quelque chose " pour ne pas dire "conscience", comme tu le souhaites, bien que la discussion soit partie là dessus : l'émergence de la conscience.

    Contrairement à ce que tu affirmes l'introduction du hasard ne change rien à l'affaire le "hasard" est utilisé avec ou sans "neurones" :
    https://hal.inria.fr/inria-00320888/document/

    Comme souvent, c'est le terme "réseau de neurones" qui fait fantasmer comme "algorithme génétique" et ça vire au délire total avec l'idée complètement folle et je pense quelque peu dangereuse de faire une copie d'un cerveau


  11. Je peux penser, et c'est le cas, que tout mon être, ma conscience, ma pensée, mes désirs, ... dépendent totalement des processus biologiques de mon être physique parce que je pense que mon être, ma conscience, ma pensée, mes désirs ne seront plus dès l'arrêt des processus biologiques qui m'animent.

    Pour autant, je ne sais pas définir ma conscience, (comme je ne sais pas définir, par exemple, ce temps qui passe) ni quels êtres sont doués ou non de conscience comme Denis Correcher. Je sais donc encore moins comment elle fonctionne, donc ce qui me donne cette conscience.

    Par exemple, la "conscience" est peut-être une idée culturelle, peut-être certains humains ne se posent pas la question de leur conscience et se voient comme appartenant à un cosmos et inscrits dans des cycles perpétuels. La conscience dépend-elle du langage : pas de langage, pas de conscience ? Aurais-je une conscience si je ne me posais pas la question ?

    michelR, pareil pour l'émotion : un chat a-t-il des émotions, un serpent, une araignée ? En même temps il me semble qu'un aspect au moins de l'émotion est objectif si on la résume à un comportement face à une situation : elle se manifeste par des critères objectifs : accélération du pouls ou transpiration, ... avec cette définition l'araignée qui fuit ou qui attaque sa proie a des émotions, comme un robot ou une poupée .


  12. Super, il ne faut pas te laisser leurrer par la soi-disant "technicité" du débat.

    Tournesol et PascalD, si je les ai bien compris, pensent que d'un réseau de neurones, par sa nature même, peut jaillir ou émerger quelque chose (et pourquoi pas la "conscience") que les algorithmes "classiques" de nos ordinateurs ne peuvent produire.

    Les algorithmes aussi bien que des réseaux de neurones artificiels sont tout à fait capables de trouver ou de reconnaître dans des données (images, sons, ...) des entités (genre reconnaître un ou des visages, lire des textes écrits, traduire un son en texte ...). Encore très récemment on pensait ce genre d'activité hors de portée d'un traitement automatique, comme l'écrit Searle : "Le simple fait de reconnaître le visage d'un ami au milieu d'une foule nécessite un processus d'une complexité qui excède largement nos connaissances."
    Le moindre smartphone ou appareil photo contredit cette affirmation, si tu dis "logiciel carte du ciel" à ton smartphone il te présente quasi instantanément un résultat de requête sur ces trois mots.

    Il semble, au moins dans les premières couches des aires visuelles, que le cerveau utilise des traitements de ce type en créant des cartes du champ visuel où il y a des lignes verticales, ou d'autres horizontales, ou d'autres où il y a du mouvement, ou d'autres où il y a beaucoup de détails, ... comme on peut le faire avec un logiciel. Après ça devient inextricable : il y a une trentaine d'aires visuelles interconnectées dans tous les sens et il est impossible d'en comprendre le fonctionnement détaillé.

    Je pense donc que les réseaux de neurones artificiels n'ont ni plus ni moins de capacité que n'importe quel algorithme (ce sont des algorithmes) et que rien ne permet de penser que d'un réseau de neurones artificiels, fût-il horriblement complexe, émerge quelque chose comme la "conscience".

    Pour le cerveau difficile d'avoir une opinion. Il semble que les premières couches de neurones biologiques aient un comportement similaire aux neurones artificiels, après c'est une autre paire de manches.


  13. PascalD,
    Plutôt que de continuer à se chamailler pendant des pages et monopoliser le débat, (on risque de lasser, là ) est ce qu'on peut s'entendre sur :
    . les réseaux de neurones (artificiels) sont des algorithmes qui sont utilisés pour traiter différents problèmes et en particulier de reconnaissance (de caractères, de sons, d'images, ...) qui sont essentiels dans la robotique et l'automatisation de nombreuses tâches.

    Que les réseaux de neurones soient un procédé efficace pour reconnaître par exemple des caractères chinois, ne montre rien de plus que l'efficacité d'un certain type d'algorithme. Ceci dit, dans le papier que tu cites le classement est basé sur le taux de reconnaissance sans tenir compte ni du temps de traitement ni de la taille du dictionnaire. Les réseaux neuronaux sont plus performants mais beaucoup plus lents. Pour un moineau face à un chat, le temps de traitement n'est pas chose anodine .

    Clin d'oeil : le système "humain" se situe à peine dans la moyenne de ses concurrents silicium dans l'épreuve de reconnaissance de caractères "en ligne" et encore son temps de traitement n'est pas donné !

    Il y aura bien sûr des progrès mais pour les autres algorithmes aussi : la méthode de Viola et Jones date de 2000.

    quote:
    If the hidden layers are larger than the input layer, an autoencoder can potentially learn the identity function and become useless.
    soit : Si les couches cachées ont plus d'éléments que la couche d'entrée, un autoencodeur peut apprendre la fonction identité et devenir inutile.

    Ca y est j'ai compris : "la fonction identité", la conscience quoi , c'est pour cela que tu crois que la conscience peut émerger d'un réseau de neurones et ces abrutis qui disent que c'est "useless"


  14. britzhell :
    quote:
    Exit l'hypothèse des comètes pour KIC8462852

    Faut ptet attendre un peu, non ?
    L'auteur du papier que tu cites, à partir de plaques photographiques prises entre 1890 et 1980, estime que la magnitude de KIC8462852 a augmenté de 0.16 magnitude (sa luminosité a donc baissé). Comme il estime que c'est la même cause qui doit expliquer l'augmentation séculaire de 0.16 mag et les brusques baisses de flux de 20%, il en arrive à une quantité faramineuse de comètes sur un siècle. Il rejette donc l'hypothèse des comètes à la fois pour la baisse de flux brutale de 20% et pour la variation séculaire qu'il mesure. (A noter qu'une baisse de flux de 20 % ça fait à peu de chose près une augmentation de 0,2 mag.)

    Le coup des comètes n'est pas complètement convaincant mais la contre-argumentation de ce papier ne me convainc pas vraiment non plus.

    Je ne sais pas si c'est une piste, mais cette étoile tourne sur elle-même assez rapidement (0.88 jour). Une autre piste serait des aléas de mesure de Kepler.


  15. PascalD, une fois de plus, tu me cherches là mais c'est bien, ça m'oblige à préciser ma pensée :

    1) les techniques de reconnaissance ont, me semble-t-il, beaucoup progressé ces dernières années. La grande surprise a été de s'apercevoir que la reconnaissance d'un visage au milieu d'une foule (pour reprendre l'exemple de Searle) n'était pas la preuve d'une sophistication extrême de notre système visuel, mais pouvait relever d'un traitement incroyablement simple.

    De ce fait, on est amené à penser qu'un réseau de neurones (au moins les premières couches du traitement visuel) n'a pas de capacité de traitement extraordinaire et hors de portée d'un simple algorithme.

    Il semble bien que nos neurones de l'aire visuelle V1 réagissent chacun à une caractéristique de l'image d'entrée : quelques-uns s'activent si des lignes horizontales sont présentes, d'autres pour les lignes verticales, pour les fréquences spatiales, pour le mouvement, ... Dans tous ces cas, le (ou les) neurone(s) réduisent l'information présente dans l'image en une information de taille plus réduite (présence ou non de ligne horizontale, ...) : les chercheurs du domaine ont montré que certains neurones ne réagissaient qu'à des caractéristiques précises (lignes horizontales, ...) de l'image présentée. La structure du neurone biologique semble confirmer cette idée : de multiples dendrites (7000 en moyenne d'après Wikipédia) pour un seul axone de sortie : donc une réduction de l'image en un petit nombre de caractéristiques.

    Faut pas être simpliste non plus, dans le cerveau il y a une trentaine d'aires de traitement visuel, les choses deviennent donc très compliquées, les traitements s'entrelaçant et s’enchaînant les uns après les autres, mais dans le principe on comprend comment le cerveau extrait des informations générales d'une image particulière.

    [coup de grâce] Excuse le GTV de te demander pardon, mais j'ai regardé wikipedia pour "autoencoder" : https://en.wikipedia.org/wiki/Autoencoder
    et y disent comme ça :

    quote:
    An autoencoder, autoassociator or Diabolo network is an artificial neural network used for learning efficient codings. The aim of an autoencoder is to learn a representation (encoding) for a set of data, typically for the purpose of dimensionality reduction.
    T'as lu ? "for the purpose of dimensionality reduction" , Ca serait-t-y l'infâme GTV qui serait allé pirater Wikipedia ? [/coup de grâce]

    2) Tu as raison et j'ai raison : la difficulté est à la fois de bien séparer des classes le 'l' et le 'i' ou le 'u' et le 'v' et d'identifier à une même classe deux écritures du 'a' ou du 'u' ou du 'm' différentes. C'est pour cela que je parlais (page 3) de faux positifs et de faux négatifs, ce qui a provoqué, pour une raison qui m'échappe, l'hilarité de Tournesol. Il me semble que nos cerveaux ont le même type de difficultés, enfin, le mien en tous cas .


  16. Très cher PascalD,

    1) et dans les exemples que tu cites, le vecteur de sortie est de plus grande dimension que le vecteur d'entrée ? un exemple conceret s'il te plaît.

    2) si ton réseau donne une réponse proche pour un 'a' et pour un 'w' ou pour un 'f' je subodore quelques problèmes de dyslexie

    Pour une fois que je ne dis pas trop de c...eries tu peux le reconnaître, non ?

    Lis vite le bouquin, je compte sur toi pour me l'expliquer


  17. Richard Guillaume, je faisais allusion à Searle qui écrit :
    quote:
    J'évoquerai d'abord rapidement un problème qui, bien qu'ayant la réputation d'être difficile, ne me semble pas très sérieux : celui de la définition du mot "conscience".
    Ce terme est souvent présenté comme extrêmement difficile à définir. Pourtant, si l'on distingue entre les définitions analytiques qui visent l'essence sous-jacente d'un phénomène et les définitions du sens commun qui ne visent qu'à identifier ce dont on parle, il n'est pas plus difficile à définir qu'un autre

    Et il donne la définition que j'ai citée et que je ne trouve pas du tout satisfaisante.

    Pour moi le problème de la définition de "conscience" est un problème sérieux et je ne vois vraiment pas comment, avec une définition aussi faible, on peut causer de la "computabilité", ou de la nature algorithmique ou non de la conscience.


  18. Mon cher PascalD,

    1) le but d'une méthode de classification avec ou sans neurone est de partir d'un vecteur de données assez grand (par exemple une image de 2 millions de pixels) et de sortir les quelques octets qui définissent la position des visages ou pour reprendre l'exemple du bouquin (tu l'as lu ?) une image de poisson et en sortie la simple information truite ou pas truite).

    C'est en ce sens que j'employais, peut-être fautivement et pour faire bien , l'expression de "réduction de dimensionnalité". Tu noteras que Dame Nature nous a fait des petits neurones avec une foultitude d'entrées (dendrites) et une seule sortie (axone). J'ai tout faux ?

    2) on peut espérer qu'un système de lecture de caractères manuscrits par exemple donne un score proche pour deux images de 'a' manuscrits proches. Il me semble que c'est le but, non ?

    Voilà pour mes deux "erreurs flagrantes".

    Je ne vois pas où est la différence de nature entre un réseau de neurones et un autre algorithme de traitement. Un réseau de neurones est un algorithme de traitement : la preuve on le programme. Si émergence il y a c'est alors que certaines familles d'algorithmes produisent de l'émergence : ça reste à prouver ...

    En revanche, rassure-toi j'arrive à percevoir quelques menues différences entre une calculette et un cerveau .

    Je serai vraiment étonné, et franchement ravi de cet étonnementj, si tu montrais quelques frémissements d'émergence dans un logiciel, mais je ne crois pas que tu y parviennes.

    Dis, "paille, poutre, oeil" c'est un langage pire que philosophique , religieux, non ? C'est pas toi, ça ?


  19. Le flux total annoncé est de 2.2 10^45 erg/s = 2.2 10^38 W soit 575 milliards de fois la puissance du soleil il faudrait que la terre soit à 12 années-lumière pour recevoir le même flux total que ce qu'elle reçoit du soleil.
    (racine carrée de 575 milliards x sa distance actuelle,
    soit 760000 fois sa distance actuelle au soleil,
    soit encore 12 années-lumière).

    La magnitude absolue annoncée dans la bande U (ultraviolet à 357 nm) est de -23.5 dans une bande où la magnitude absolue du soleil est 6.35 soit 870 milliards de fois la puissance rayonnée par le soleil dans l'ultraviolet. Il faudrait alors que la terre soit placée à 15 années lumière pour recevoir de la supernova autant d'UV qu'elle en reçoit actuellement du soleil. A 4 années-lumière (la distance de Proxima Centauri) elle recevrait en gros 15 fois plus d'UV qu'actuellement.


  20. ... soit sa conjecture est ni vraie ni fausse mais tout simplement mal posée, en particulier parce qu'on n'a pas de définition de la conscience. A moins qu'on ne se satisfasse de celle de Searle :
    quote:
    «conscience» se réfère aux états mentaux qui commencent en général lorsque nous nous éveillons d'un sommeil sans rêve et se poursuivent jusqu'à ce que nous nous endormions de nouveau ou tombions dans le coma ou mourrions, ou devenions, d'une manière ou d'une autre, «inconscient».

    Il me semble difficile de lancer des conjectures sur un concept aussi flou, et qui se mord la queue, non ?

  21. Ah Tournesol, je préfère franchement quand tu t'exprimes de cette façon ! Si tu ne supportes pas mon "côté inquisiteur" (qui, de mon point de vue, n'est que l'expression d'un scepticisme salutaire ) je ne supporte pas tes arguments d'autorité et tes affirmations péremptoires sans support objectif.

    La question qui nous sépare, là : "est-ce que d'un réseau de neurones suffisamment complexe, même artificiel, va émerger quelque chose que ne peut pas calculer un programme classique ?"

    Je ne sais pas si les réseaux de neurones biologiques ont cette propriété, mais les réseaux de neurones artificiels à partir d'un vecteur d'entrée (une image, un son, ...) produisent un vecteur de sortie de dimensionnalité plus réduite. Les vecteurs de sortie seront d'autant plus proches que les images qui les ont produits sont proches ce qui permet de classer les images et de les regrouper dans des classes. Rien d'émergent là dedans. Et des résultats équivalents sont obtenus avec un réseau de neurones ou par une autre méthode.

    Reconnaître la présence d'un visage n'est pas plus compliqué qu'identifier des visages ou détecter des sourires, ou une attitude menaçante.

    Super, souvent on découvre que les problèmes qu'on se posait n'en étaient pas ou alors étaient mal posés. Pearle pensait, comme toi, je suppose et moi en tous cas, que reconnaître un ami au milieu d'une foule était une tâche extrêmement complexe preuve d'une extrême sophistication de notre système de perception visuelle.

    Quand on voit la simplicité déconcertante des algorithmes de nos compacts, c'en est presque déprimant (la méthode, je crois, la plus utilisée est celle de Viola et Jones https://fr.wikipedia.org/wiki/Méthode_de_Viola_et_Jones ).

    Ca veut simplement dire que l'activité de reconnaissance ou d'identification (de formes, de visages, de sons, de caractères, de n'importe quelles catégories) relève d'algorithmes très simples et ne permettent pas d'expliquer la "conscience".

    [Ce message a été modifié par ChiCyg (Édité le 15-01-2016).]


  22. PascalD :
    quote:
    Tes exemples sont des "quoi", et le débat porte sur le "comment".
    Trop facile, là aussi : je croyais que tu exécrais la philosophie, là tu fais dans le sophisme, voire le jésuitisme . Je n'ai toujours pas l'ombre du début d'un soupçon d'exemple .

    Tiens, j'ai trouvé le "Duda" sur le ouèbe, PascalD et Tournesol faites moi le plaisir de lire au moins l'introduction et au moins jusqu'à la section 1.3 : http://cns-classes.bu.edu/cn550/Readings/duda-etal-00.pdf

    Ces anglo-saxons ont quand même le génie (mal partagé par notre génie latin - question de neurones ? ) de présenter les problèmes d'une manière didactique, compréhensible et pragmatique. C'est l'exemple de l'usine de poissons qui est parfait pour poser le problème sur de bonnes bases bien concrètes et odorantes .

    Pas sûr que la distinction de Searle entre "syntaxique" et "sémantique" soit pertinente. En tous cas, Searle a tout faux quand il écrit dans l'article cité plus haut dans ce fil : http://www.larecherche.fr/savoirs/autre/deux-biologistes-physicien-quete-ame-01-05-1996-87615 :

    quote:
    Le problème est que le fonctionnement du système visuel est étonnamment compliqué. Le simple fait de reconnaître le visage d'un ami au milieu d'une foule nécessite un processus d'une complexité qui excède largement nos connaissances.
    N'importe quel appareil photo est capable d'extraire en quelques fractions de secondes les visages d'une image et même de détecter les sourires ...

    De mon point de vue, cette erreur d'appréciation remet en cause sa distinction "sémantique" / "syntaxique" et par voie de conséquence une grosse partie de son article.


  23. quote:
    ChiCyg: Si tu ne vois pas la différence entre un algorithme qui calcule bêtement une distance adhoc, et un algorithme qui résout un problème en extrayant du jeu d'entrée des représentations abstraites, je crois que je ne peux rien pour toi.

    Non, non c'est trop facile, là !
    1) J'entre un jeu d'images dans le logiciel et je reçois en retour la localisation des piétons et des voitures sur les images.

    2) J'entre un jeu d'images dans le logiciel et je reçois en retour les positions et les chaînes de caractère des textes présents dans ces images,

    3) J'entre un jeu de résultats d'analyse médicales dans le logiciel et je reçois en retour la liste des porteurs du syndrome de machin-truc,

    4) J'entre un jeu d'images et je reçois en retour la position et la classe des galaxies présentes sur l'image.

    Dans quel(s) cas l'algorithme a-t-il extrait du jeu d'entrée des "représentations abstraites" ?

    S'il n'y en a aucun, donne-moi un exemple "d'extraction de représentations abstraites", s'il te plaît.