Intelligence artificielle : "on plaque des solutions technologiques sur des questions sociales"
L'intelligence artificielle déferle sur le monde. Pas un jour sans qu'une dizaine d'articles expliquent quel nouveau champ elle s'apprête à révolutionner. Et pourtant, elle apparait toujours aussi absconse : y a-t-il "une" intelligence artificielle, ou plusieurs, appliquées à des taches précises? Est-elle vraiment intelligente? Au point de pouvoir, potentiellement, s'en prendre à ses créateurs? Et surtout, quels défis pose-t-elle à la société, en termes d'emplois et de responsabilité politique? Pour répondre : Laurent Alexandre, chirurgien urologue, entrepreneur fondateur de Doctissimo, auteur de La Guerre des Intelligences (JC Lattès) ; Jean-Gabriel Ganascia, chercheur en IA et professeur à l'université Pierre et Marie Curie, auteur de Le Mythe de la Singularité (Seuil) ; Tiffany Blandin, journaliste indépendante auteur de Un monde sans travail? (Seuil/Reporterre) et Irénée Régnauld, fondateur de l'association Le Mouton Numérique qui questionne les aspects politiques de l'innovation, et auteur du blog Mais où va le web?
Abonnez-vous pour pouvoir commenter !
si vous êtes déjà abonné Connectez-vous Connectez-vous
Derniers commentaires
J'ai vraiment été très surpris par votre attitude lors de ce débat passionnant mais compliqué. J'ai trouvé que vous n'avez pas laissé à Mr Ganascia assez la parole et l'avez coupé à des nombreuses reprises en coupant les logiques argumentaires.
Bien entendu, aucune animosité dans ce commentaire. Je vous remercie d'avoir organisée ce débat sur un sujet important. Je remercie également Capucine d'avoir préparé cette émission et qui aurait pu éventuellement avoir davantage la parole.
Bref, un très bonne émission comme d'habitude mais quelques commentaires d'internautes exigeants pour le journaliste exigeant que vous êtes. ;-)
Bonne soirée.
Blague à part, tout ces futurs hypothétiques s'inscrivent dans un monde fantasmé basé sur celui d'aujourd'hui. Or, pour ne prendre que l'exemple des structures multicouches capable d'apprendre en permanence, leur réalité matérielle est basé sur des métaux rares.... Quelle durabilité d'un tel dispositif si ce n'est basé sur de nouvelles guerre des ressources ? (c'est vrai qu'en la matière, on en manque...).
Bon futur à tout le monde.
Je viens de lire trois nouvelles de science-fiction d'une autrice qui se pose des questions sur l'avenir avec des robots partout, nouvelles que je trouve très pertinentes.
Elles sont publiées sur le site «Et si Platon avait tort ?»
La deuxième aborde le rôle critique que doivent garder les humains, et notamment leur rôle politique. Elle aborde aussi la question de savoir comment résister, c'est vraiment très bien.
Et pour ne rien gâcher, il est prévu une nouvelle par semaine, bonne lecture.
Je demande parce qu'il a une voix très proche, des intonations tout à fait similaires, et un peu le même regard !
Et puis il a aussi cette manie de dire " l'école" ou "l'éducation nationale" pour parler de la formation professionnelle ou des études supérieures, ... pour un type qui réclame ( à juste titre) davantage de finesse et d'analyse c'est une imprécision disons... agaçante.
Je crois que le nombre maximum d'invités pour une émission réussie c'est 3. Au delà c'est souvent confus.
Bonne soirée
Pardonnez moi mais le post va être un peu long
J'ai arrêté lorsque Ganascia a commence à mélanger projection/émotion/ conscience etc... Le gars ne sait pas ce qu'est le phénomène de la conscience... Non, La conscience ne se réduit aps à projeter dans un aspirateur de l'âme (c koi ce genre d'ineptie??) ou se rendre compte de ses émotions... Il y a dans son discours une ignorance pour les travaux philosophiques qui est carrément affligeante voire cocasse si on ne se sent pas concerné...
La conscience est une capacité singulière qui consiste en fait à savoir savoir. C-à-d : je suis conscient de ce que je suis lorsque je sais qui je suis et je sais que je le sais. Je suis conscient en ce moment même car je puis me regarder faire et le verbaliser piisque je suis capable d'écrire qu'en ce moment même je poste un message sur le forum d'ASI...
Ça veut dire que je suis capable d'énoncer des propos autoréférentiels c-à-d qui se réfèrent à moi-même sans me contredire et en sachant que je ne parle pas d'un autre que moi-même.
Un ordinateur est capable de progresser en intégrant d'autres informations sur le sujet programmé, mais... il ne sait pas qu'il progresse... Il s'agit d'une opération mécanique, automatique, mais l'ordinateur ne produira jamais un énoncé victorieux à son utilisateur du type : yes!! J'ai compris... L'ordinateur ne SAIT pas ce qu'il fait.
Un autre ex : vous avez la formule mathématique pour résoudre des équations avec exposant 2... Et puis on vous donne à résoudre une équation cubique avec la même formule. Vous allez vite vous apercevoir que ça ne marche pas. Soit vous êtes un super matheux et vous retrouvez tout seul la formule ou vous demandez à un prof de maths. Vous sortez du système pour chercher un autre chemin. L'ordinateur lui, muni d'un algorithme erroné ne sort pas du système pour chercher autre chose : il bugue.
Tout cela pour dire que jamais, au grand jamais un ordi ne pourra atteindre la conscience de soi. Si une machine atteint ce stade, ce ne sera pas un ordinateur mais autre chose qui ne fonctionnera pas avec des algorithmes mathématiques ou logiques.
Pourquoi? Pour répondre à cela il faut un peu d'histoire et ne pas se laisser submerger par les superstitions générées apr une superstition infantile face aux machines.
les grecs avaient découvert un paradoxe logique qui a emmerdé les matheux et les logiciens depuis 25 siècles jusqu'à Godel qui a résolu la chose. Ce paradoxe est celui d'Épiménide le Crétois qui dit tous les crétois sont menteurs. Epiménide ment-il ou dit-il la vérité? Le paradoxe consiste dans le fait que s'il ment il dit vrai et s'il dit vrai il ment. C le type d'énoncé que l'on appelle des indécidables car ce sont des énoncés autoréférentiels, un vrai fléau logique pour toute IA. C Godel qui résoudra ce mystère logique en 1931 avec son fameux théorème de l'indécidabilité dans un système axiomatique. Je passe les détails. je passe directement aux conséquences :
Une IA ne peut pas accéder à la conscience de soi du fait que tout système axiomatique authentiquement valide comportera toujours des axiomes indécidables et c'est même cette qualité particulière qui en assure la validité mathématique. Un système axiomatique ou tout serait démontré serait un système faible... Le coup de génie de Godel c'est de l'avoir démontré mathématiquement. C'est irréfutable, ça a cassé Hilbert, Russel et tous les mathématiciens qui entretenaient la croyance d'un système mathématique ou enfin tout serait démontré. C juste impossible. La conséquence informatique c'est qu'aucun algorithme informatique ne pourra modéliser la capacité autoréférentielle de la conscience. Une machine consciente genre Matrix ou Terminator/Skynet n'est rien d'autre que de la superstition technologique.
J'arrête là. Celui qui a montré cela est un physicien Douglas Hoftstader qui est une autorité ondiale en la matière et qui refuse toute accointance, association ou échange avec les GAFA qu'ils méprise de par l'usage qu'ils font de l'IA. Il a écrit un livre génial prix Pulitzer 1978 et un best seller mondial. Voici le lien : ici
Cordialement à tous.
La gouvernance de l’intelligence artificielle ; Une consultation publique mondiale
du 7 septembre 2017 au 31 mars 2018
Par contre ce qui me paraitrait logique, c'est qu'une société bien organisée qui utilise de plus en plus de robots et d'intelligence artificielle devrait diminuer progressivement le temps de travail.
Si le progrès technique ne permet pas de vivre mieux en travaillant moins, alors il est inutile. (ou bien il est utile, mais pour une minorité de gens qui profitent seuls de ces gains, pendant que les conditions de vie des autres se dégradent)
Il ne me semble pas que cet aspect ait été évoqué par les intervenants de l'émission.
sur son blog que je découvre on parle de l'excellent Gilbert Simondon (mort dans les années 80), philosophe des techniques, qui nous propose de sortir de la dialectique admiration béate / rejet et crainte des objets techniques, qui relèvent dans les deux cas de la mystification totale, pour s’intéresser à l'essence, au sens ontologique, des objets techniques.
http://maisouvaleweb.fr/innover-avec-gilbert-simondon-ou-comment-reapprendre-a-faire-aimer-les-machines/
Vous m'avez rajeuni de trente ans voire plus. Déjà" l'intelligence artificielle, "le contraire de la bétise naturelle, posait à ses parents le difficile problème du nom de baptème.
Une fois n'est pas coutume, je rends grâce à Germain Rital d'avoir clairement posé ce problème de nom de baptème.
Car il ne s'agit pas d'intelligence, si tant est que nous soyons capables de donner une définition opératoire du mot intelligence. A ce sujet , D. Trump semble avoir quelques idées.
Peut-être, j'insiste sur le peut-être, n'est-ce qu'un avatar du balai qui travaille tout seul.l
Je n'ai rien compris aux dix/vingt premières minutes de l'émission et j'ai arrêté.
Sur "l'intelligence artificielle", c'est un "concept" élaboré par les constructeurs informatiques, dont celui à trois lettres, dans les années 70... (et qui n'a en aucun cas le sens de "concept philosophique").
Il n'y a pas d'intelligence dans un programme informatique. Dans la pensée du programmeur, peut-être... C'est juste de l'artifice.
En tout cas le sujet m'a fait une fois de plus m'interroger : Madame Truong, êtes-vous de la famille de Jean-Michel du même nom ?
Le sujet que vous venez de piloter rentre en résonnance avec ses romans (au demeurant bien désespérants).
- "conscience" du latin "conscientia" : "connaissance en commun" (connaissance partagée ) et aussi "conscience individuelle"
Il semblerait donc que l'intelligence serve à construire la conscience
Laurent alexandre
On croirai entendre un manager, je ne suis pas abonné a ASI pour me taper des idéologue libéraux, qu'on se tape sur les plateux tv.
Que fait la cellule investigation d'ASI... profondément déçu.
Pourtant, il ne suffit pas d'aller chercher très loin: http://tempsreel.nouvelobs.com/sciences/20170210.OBS5170/10-choses-a-savoir-sur-laurent-alexandre-gourou-de-l-intelligence-artificielle.html
A voir aussi
le mooc des robots et des hommes avec Claire Devillers
En France tout les ordinateurs du gouvernement(même l'armé), tournent sous Windows, ça donne une idée du niveau.
Ce message a été supprimé suite à la suppression du compte de son auteur
Je reste abonné.
- analyse des visages et mettre un nom dessus, y compris des gens qui étaient dans le fond de la vidéo (c'était tourné sur un salon)
- analyse des visages et pouvoir mettre une émotion dessus (content,pas content...)
- analyse de la voix et pouvoir mettre une émotion dessus (content,pas content...)
C'est très impressionnant comme démo, visiblement c'est super utile pour les entreprises pour déterminer l'impact de vidéo de présentation de produits.
Personnellement, j'ai tout de suite pensé à ce qu'un gouvernement totalitaire pourrait faire de tout cela (identifier des manifestants), ou la direction d'une entreprise (genre qui n'a pas applaudi le discours du président ou qui n'a affiché un sourire béat devant la parole de son chef).
Cela me parait un sujet plus immédiat que l'avenir de l'emploi, la formation des jeunes ou celle de l'humanité augmentée.
homme / machine .
Laurent Alexandre a dit dans l'émission tout le mal qu'il pense de l'éducation nationale .
Il fait le reproche à l'école d'être incapable de "réduire les inégalités intellectuelles"
( pour cet objectif il faudrait commencer par ficher les enfants à l'entrée au CP, ou en maternelle peut-être ? - , les classer selon ce qui serait appelé : "compétences intellectuelles" ou plutôt : "intelligence" )
Donne-t-il seulement une définition de l'intelligence, cet auteur qui affirme que "l'intuition des pédagogues se passe de toute validation scientifique" ?
En dehors de l'introduction des neurosciences dans le pédagogique, point de salut selon lui .
"pour rester dans la course, l'être humain aura deux choix, d'ailleurs non exclusifs l'un de l'autre : l'eugénisme biologique ou la neuroaugmentation électronique "
La question qui se pose, est de savoir si l'une des sociétés dans laquelle Laurent Alexandre investit ne serait pas une maison d'édition de logiciels pédagogiques ?
Au fait, est-il toujours praticien ?
( cf parmi les articles - nombreux - sur la présentation de ce livre ,celui des échos qui publie la photo du robot donnant un cours de Tai Chi à un groupe d'enfants)
Pour comparer ce dont est capable le une IA et le cerveau humain, c'est indiqué. Alors certes, un neurologue aurait été préférable à un urologue.
Je ne vois personne s'interroger sur les capacités des "informaticiens" en psychologie, neurologie, en philosophie...
Premièrement, vos invités sont mal choisis. Vous avez invité trois non scientifiques, dont le fondateur de Doctissimo, Laurent Alexandre, médecin, qui sont certes bon orateurs mais n'ont qu'une connaissance très partiel du domaine de l'informatique (et de toutes les techniques autour de l'informatique). Jean-Gabriel Ganascia étant la seul personne compétente sur le sujet ne peux ni animer le débat, ni être contredit par les autres invités, ce qui pose un problème.
Deuxièmement, quand on parle d'intelligence artificielle et de ses progrès, on parle d'un ensemble de techniques informatiques (et il
y en a d'autre). Il se trouve que ces techniques sont inspirés de concept de biologie et que l'on a donné ce nom la à cette branche de l'informatique. Si "intelligence artificielle" avait comme nom "apprentissage informatique", la plupart des interrogations des non spécialistes aurait des questions différentes sur le sujet. Pour ma part, je connais beaucoup pas mal de chercheurs (du domaine) qui disent que le nom de ce domaine porte à confusion. Aussi, le fait de demander aux chercheurs qui travaillent sur ce sujet et font la promotion de ce sujet, ce que ces techniques vont permettre dans le future, est une démarche biaisée (sans autre contre-démarche) et cette démarche est la plus rependu parmi les journalistes (et dans cette émission c'est le cas).
Troisièmement, j'ai souvent l'impression que les progrès de l'informatique sont vu comme une magie noire. Il faut savoir que l'amélioration des matériels informatiques n'explique pas à lui seul des progrès tels que la reconnaissance d'images et la création d'une intelligence artificielle. Il s'agit, d'en la plupart des cas, d'un assemblage de découverte scientifiques astucieuses indépendante du matériel. Par exemple, en ce qui concerne le go, la première grande amélioration des IA dates de 2006 et aurait donné les mêmes gains de performance 20 ans plus tôt.
Je viens de terminer l'émission en me demandant ce que pouvait bien être cette "intelligence artificielle" (qui a été l'objet de la première question de l'émission, qu'aucune réponse des intervenants ne m'a permis d'éclaircir tout à fait). Renommer la discipline en "apprentissage informatique" me semble par contre limpide, parce que je comprenais pas trop la différence faite entre un ordinateur super puissant et un ordinateur "intelligent".
Et c'est clair que ça amènerait bien d'autres questionnements (étant fan de Blade Runner, Terminator, et Minority Report, là j'avais l'impression d'être dans une émission de critique cinéma...)
Ganascia était-il le plus approprié pour le sujet ? Pas sûr. Il y a eu une demi-heure où il avait du mal à vulgariser dans le sens nécessaire pour la suite, ça s'est perdu dans du "wikipedia" (expliquer le deep learning en 1 minute...), et on n'a guère eu de vision d'ensemble sur les applications concrètes ayant des impacts sociaux.
En fait, entre cette émission et les usages bizarre de "les algorithmes" qui ont été faits dans d'autres émissions, j'ai l'impression qu'à @si on ne voit pas bien que c'est le même sujet, le développement général des compétences du logiciel, que ce sont juste les imaginaires qui changent selon qu'on se met à parler "big data", "algorithmes", "intelligence artificielle" etc.
Quand dans l'émission Daniel renvoie la question à une simple augmentation de puissance de calcul, il rate que celle-ci n'est qu'un moyen, que c'est la diversification des tâches réalisées qui compte et les manières de les réaliser.
Plus besoin d'un super-ordinateur pour battre un champion d'échec, un logiciel sur smartphone y arrive.
Le premier est le potentiel d'aliénation des algorithmes qui nous donne des solutions de façon autoritaire, sans que l'on puisse les contester. Par exemple l'algorithme de recherche de Google peut influencer notre façon de percevoir le monde. La non connaissance des algorithmes, des choix qui ont été fait derrière est un problème. Les concepteurs des algorithmes ont une responsabilité. C'est pour cela que l’intervenant à droite parlait de choix (et de démocratie).
Aujourd'hui Google et les grands groupes se dédouanent de leur responsabilité derrière le choix de la majorité (la dictature de la majorité n'est pas démocratie).
Mais avec l'intelligence artificielle qui est responsable ? C'est ça le problème, il sera très facile de se dérober. Est-ce que le responsable est celui qui a mis les objectifs à atteindre dans l'algo d'apprentissage profond ou un apprentissage biaisé ?
Dernier point, si l'IA permet d'augmenter la productivité, cela veut dire que moins de personnes vont travailler pour produire une même quantité de produit. Donc ça augmente le chômage (pas forcément en Allemagne mais ça a un impact ailleurs dans le monde) à part si on augmente la consommation ou qu'on creuse des trous pour les reboucher.
Souvent il travaille à la conforter (votre vision du monde), grâce à ses logiciels d'IA faible qui en font le modèle.
les outils techniques, qu'il s'agisse d'un tournevis ou d'un programme dans un ordinateur, permettent en théorie pour l'homme d'accomplir une tâche plus efficacement, voire impossible juste avec ses dix doigts et son cerveau. Dans cette optique donc l'automatisation et l'IA faible permettent en théorie de libérer l'homme des boulots aliénants et repetitifs, pour se consacrer à des choses plus intéressantes. Pour ça il faut bien évidemment sortir du mythe de l'emploi et du travail salarié comme unique mode d'existence possible.
Sinon pour le reste, c'est toujours des humains qui mettent en place des outils algorithmiques, en symbiose avec un mode de production capitaliste qui vise à une forme d'efficacité, sans jamais élargir les champs de réflexions. C'est à la fois aux humains qui les mettent en place et à ceux qui les utilisent de se poser les bonnes questions, et là on sort du champ de la science appliquée à l'informatique pour rentrer sur le terrain de la philosophie, et de la politique. On en parle comme si les outils tels que les algorithmes de deep learning avaient déja suffisement d'autonomie qu'on n'ai plus aucun pouvoir sur ces outils. C'est seulement par ignorance qu'on pense être dépassés. Mais c'est bien ceux qui les mettent en place qui font ces choix là. C'est comme si on sautait d'un train en marche et qu'on se plaignait de n'avoir plus aucun contrôle sur lui. Quand des types comme Elon Musk vivent autant dans la mysitification (au sens religieux), alors qu'on s'attendrait de lui un peu plus de recul, il y a en effet de quoi s'inquiéter sur la folie mystique que les humains vont développer autour de "l'IA". Comme s'accordent au moins à dire tous les intervenants autour de la table ici, et contrairement à toute la littérature sur la singularité à laquelle adhèrent un bon nombre de gourous de la silicon valley; on a aucune idée de si on arrivera jamais à la notion réelle d'IA forte, c'est à dire être singulier doué d'une conscience propre, ni comment elle se manifestera, ni si on sera capable de l'identifier.
Je me permets d'apporter une petite précision. Ce que permet la technique n'est pas seulement d'accomplir une tâche plus efficacement, ou sinon impossible. Des techniques ont été inventées tantôt dans le seul but du confort (suspension), tantôt dans le seul but de la sécurité (casque de chantier), tantôt pour rendre des tâches moins pénibles (roue), tantôt pour les rendre ludiques (serious game), ou encore dans un seul objectif esthétique (teinture). Et je dois certainement en oublier d'autres.
Là où je veux en venir c'est que si le but du jeu est de réapprendre à faire aimer les machines (merci pour ce lien) alors il ne faudrait probablement pas présenter la technologie comme ayant pour seul objectif l'efficacité, le rendement, la productivité.
Concernant l'intelligence artificielle par exemple, et plus particulièrement l'apprentissage profond (qui n'en est qu'un sous-ensemble), il faut se rappeler qu'à l'origine c'est une innovation qui nous vient de l'astrophysique dont les volumes de données sont... astronomiques.
Il m'apparaît évident que si l'on me présentait uniquement l'IA comme permettant à Google de collecter mes données personnelles pour m'inonder de publicités ciblées et de m'envoyer au chômage, d'une part je vais être réticent voire hostile, et d'autre part je ne risque pas de m'y intéresser. Si l'on me dit au contraire que l'IA permet de guérir des maladies, d'explorer l'espace, et d'anticiper catastrophes naturelles et crises humanitaires, tout de suite, je vais être beaucoup plus enclin à m'y intéresser et à l'étudier.
c'est vrai, de toute façon la question de l'efficacité n'as pas de sens en soi.
Chez Simondon il me semble Il s'agit de comprendre l'outil, son usage, sa constitution, son fonctionnement, ses limites, son inscription dans un réseau ou dans un ensemble plus grand, son essence ("individuation"), son historicité, et comment il est une extension et/ou un miroir de l'humain.
Il en parle dans cet entretien (il faudrait que je le lise pour pouvoir mieux en parler):
https://www.youtube.com/watch?v=VLkjI8U5PoQ
Hélas si ! (ne vous fâchez pas). Ce n'est pas le logiciel du site qui choisit de placer votre commentaire. C'est vous et l'erreur courante est de répondre au général, ce que vous avez fait ici, au lieu du commentaire que vous. L'option existe en rouge à droite du bandeau qui apparait quand vous cliquez sur répondre au commentaire. On peut la cliquer par inattention.
*Sans oublier que le je pense fut par Descartes découvert grâce au je doute.
de l'irremplaçable Gemp qui offre l'option.
Je ne propose donc aucune explication de l'erreur qui vous a "mal placé".
Sur mon domaine de spécialisation, je pensais donc souffrir... Et bien je n'ai pas retenu la même impression que vous.
J'ai l'impression qu'en une heure, ASI est parvenu à démystifier partiellement le mythe de l'IA. En le ramenant à des domaines très spécifiques dès le début de l'émission. En rappelant que les neurones ne "modélisent" qu'une partie du fonctionnement du cerveau. En refroidissant les prédictions alarmistes sur la singularité. En expliquant le genre de catastrophe auxquelles les nouveaux algos pourraient nous mener, réels mais sans volonté de détruire les humains. Etc.
C'est vrai qu'il reste quelques faiblesses majeures dans l'appréhension de ce sujet (complexe), la principale consistant à ne jamais avoir expliqué que l'IA est basée apprentissage. La comparaison entre Deep Blue et Alpha Go aurait été une occasion parfaite pour opposer l'ancienne "intelligence" combinatoire des PCs à leur nouvelle "intelligence" par apprentissage...
Mais bon, pour ce qui me concerne le solde m'a l'air très positif. Des coins ont été fortement enfoncés dans les clichés médiatiques sur l'IA, et c'est déjà énorme en si peu de temps.
La question qui se pose à présent est celle du contrôle de ces artefacts cognitifs, qui étaient jusqu'à présent de simples auxiliaires à notre service mais qui acquièrent aujourd'hui de plus en plus d'indépendance.
Quand notre propre cerveau devient incontrôlable et sort de la norme, on parle de folie.
Quand nos extensions cognitives risquent à leur tour de devenir incontrôlables, de quoi parlerons-nous ?
Sur le théorique, Daniel n'a pas semblé bien voir où étaient les sauts qualitatifs, je crains que ce soit la même chose pour beaucoup de gens.
Par exemple, sur l'apprentissage, on devrait peut-être dire auto-apprentissage parce que ces systèmes définissent eux-mêmes leurs comportements pour obtenir l'objectif qu'on leur fixe dans un jeu qui échappe à l'analyse humaine. L'effet imprévisible n'est pas un bug à proprement parler, le système fonctionne très bien puisqu'on lui demande justement d'être "innovant", c'est-à-dire d'être plus optimal que ce qu'on peut faire nous-même. Tout ça marche très bien pour les "jeux" au sens large, systèmes ayant des règles de gain/perte quantifiables notamment l'économie.
Sans parler des jeux de guerre (nucléaire...), on pourrait avoir rapidement des problèmes avec le système financier où les transactions à haute fréquence posent déjà souci (cf Flash crash de 2010), et avec bientôt peut-être des systèmes pouvant se passer d'intervention humaine :
"Une publication de l'Université d'Erlangen-Nuremberg montre ainsi l'efficacité du deep learning (apprentissage machine profond), appliqué à l'arbitrage financier sur un vaste marché tel que le S&P 500 (indice boursier basé sur 500 grandes sociétés cotées sur les bourses américaines). Par un exercice de simulation sur l'historique des cours de 1992 à 2015, le réseau neuronal a atteint par moment des performances records, se maintenant à deux chiffres y compris au plus fort de la crise financière de 2008, ou lors de l'éclatement de la bulle internet en 2000-2001 !"
Bientôt les traders au chômage ?
Et que se passerait-il avec une démocratisation de ces systèmes, chacun pouvant lancer son ordi pour jouer en bourse ?
Dans le genre jeu d'argent : il y a déjà des bots repérés sur les plateformes de poker en ligne (et dernièrement, un système a battu des professionnels).
Sinon, si le fond idéologique du transhumanisme est traité dans une autre émission, il faudrait à mon sens quelqu'un maîtrisant de vieilles questions sur la technique, les rêves de puissance, de dépassement de l'humain etc., ne pas prendre ça comme une nouveauté. Le transhumanisme est dans les lignes anciennes du rapport de la technique au pouvoir, promesses de magie par les recettes des initiés, de Prométhée à Frankenstein.
Toute cette mentalité n'a pas manqué de critiques particulièrement avec la foi techno-scientiste qui anime nos sociétés depuis quelques siècles ("comme maître et possesseur de la nature" disait Descartes...).
Au passage, le thème a été largement développé dans la science-fiction dès les années 50 avec l'arrivée de l'informatique et dans une nouvelle ("Hemeac", dans ce recueil) un robot enseignant demande aux étudiants de définir l'éducation :
"L’objectif de l’éducation, récita Obsic d’un ton uni et calme, consiste à développer l’esprit humain de façon qu’il puisse approcher la perfection naturelle de l’intelligence robotique d’aussi près que le lui permettent ses facultés limitées."
N'est-ce pas ce qu'on nous propose dans une société de performance où la concurrence se fait non seulement entre humains mais aussi avec les machines ?
D'ailleurs, j'ai peut-être mal compris mais Laurent Alexandre ne semblait pas contre la promesse de gamins à haut QI (il investit dans ce business ?) et cet eugénisme n'est pas vraiment différent des autres méthodes d'outillage de l'humain, avec le robot comme image contemporaine de la puissance supérieure, qu'elle soit angélique ou démoniaque. Peut-on vanter les Humanités quand on se met à parler de "surhumain" par la génétique ou par l'électronique ? Que diraient de cette mentalité ces psychologues que Ganascia tient à former à l'intelligence artificielle ?
"Laurent Alexandre, chirurgien urologue, fondateur de doctissimo". Ah ouais, quand même. Vous étiez vraiment en dèche d'invités ou bien comment ça se passe ? A ma connaissance, rassembler la connerie humaine sur un site n'a jamais fait naître l'intelligence artificielle.
(cela dit, je regarderai demain, on verra bien...)
Ce message a été supprimé suite à la suppression du compte de son auteur
Helas en parlant d'emplois les invités oublient de discuter de la nature de ces emplois : se développer à la chinoise, c'est tolérer les fermes à clics. A l'américaine, c'est les externaliser discrètement ou en faire un commerce, à la Mechanical Turk. Un problème très bien résumé par cette illustration https://xkcd.com/1897/
Ceci dit, merci DS de ramener de temps en temps des questions pratiques, mais pertinentes : les IA telles qu'on les connait, et ça devrait encore être le cas quelques temps, sont avant tout des programmes informatiques. Qui fonctionnent donc sur des ordinateurs, alimentés en électricité, reliés à un réseau, par des câbles, etc. Leur existence concrète les limite énormément et ridiculise la plupart des scénarios à la Terminator, mais surtout indique directement quels intérêts elle servent - qu'elles soient faibles ou deviennent fortes.
Pour finir de vous convaincre d'à quel point on va avoir besoin d'esprits critiques, je vous renvoie à cet article https://www.economist.com/news/science-and-technology/21724370-generating-convincing-audio-and-video-fake-events-fake-news-you-aint-seen
Peut-être que les IA auront aussi un effet Gorafi ?
Il oublie juste de mentionner que ce sont aussi les pays dont la démographie est en chute libre et où la population active
vieillissante tend à diminuer et ne suffit plus à répondre aux besoins... d'où davantage de place disponible pour des robots (Japon) ou pour des robots et des travailleurs immigrés (Allemagne).
Comme quoi, contrairement à ce qu'il suggère, ce n'est sans doute pas la robotisation en tant que telle qui évite le chômage.
l'ingénieur d'Amazone qui conçoit le robot qui, à chaque fois que je consulte un livre, me suggère d'autres ouvrages... qui ne m'intéressent pas, cet ingénieur est payé plusieurs millions de dollars par mois !
Ma libraire, qui deux fois sur trois me propose un titre qui m'intéresse, devrait demander une augmentation.
[Rien à voir avec la remarque ci-dessus] :
Fort heureusement, en matière de connerie naturelle, nous pouvons nous enorgueillir de demeurer imbattables pour l’instant.
Ne vaudrait-il pas mieux parler de "C.A.... crétinisme artificiel" ?