Transhumain, trop transhumain…

Une fois n’est pas coutume, ce blog ne va pas parler écriture mais technologie. Singularité, transhumanisme et NBIC, pour être plus précis. En plus, vu qu’en ce moment, j’ai la flemme de trouver de quoi écrire sérieusement sur un sujet donné, ça va remplir un peu le fil des articles.

Tout est parti de Dominique Lémuri qui a partagé un lien vers « Loi du retour accéléré : la théorie vertigineuse du futurologue de Google qui n’a jamais eu tort » chez Atlantico. Alors, avec un titre pareil, on est bien d’accord, c’est du bon gros clickbait des familles. L’article parle des théories futurologiques (ça se dit ?) de Ray Kurzweil, un type plutôt malin puisqu’il a conçu les tous premiers appareils de reconnaissance optique de caractères durant les seventies, et qui est l’auteur du connu Singularity is near (sans parler de The Age of Intelligent Machines et de The Age of Spiritual Machines). Bon, passons sur l’article, lisez-le si vous voulez, c’est de la futurologie au rabais – les mecs n’ont même pas pu se payer le luxe d’interroger Kurzweil lui-même.

S’est ensuivie une longue discussion entre Jérôme Cigut et moi, et, vu que pas mal de bons points furent échangés, Jérôme a proposé malicieusement qu’on rebalance ça sur nos blogs respectifs. J’y ai vu l’occasion d’un article pour pas cher d’étendre le débat à qui voulait, et donc, voici notre transcript :

Jérôme Cigut : Ce que j’aime avec les articles qui commencent par « les prédictions de l’homme qui ne se trompe jamais », c’est qu’on peut être à peu près sûr que ce sera bourré d’erreurs. (De la même façon, les journaux financiers ont la fâcheuse tendance à titrer « il n’y a plus aucun nuage sur l’économie » juste avant qu’une crise n’éclate : loi de Murphy.)

Déjà, l’article commence mal, puisque je soupçonne que « retours » est la traduction maladroite de « returns », ce qu’on traduirait plus volontiers par rendements en français. La théorie des rendements croissants quand on industrialise un processus, merci mais ce n’est pas nouveau. Rendez à Taylor (Frederick, pas Swift) ce qui lui revient. Ensuite notez qu’on connait aussi, plus tard, les rendements décroissants : on va beaucoup plus vite en train qu’en diligence, mais on ne va pas plus vite avec deux lignes de chemin de fer mises en parallèle plutôt qu’avec une seule. De même, quand je vois que les Japonais, pourtant en pointe sur la robotique (et pas franchement très ouverts à l’immigration) préfèrent importer des infirmières philippines plutôt que de mettre des robots dans tous les hôpitaux et hospices, je me dis que ça a peut-être à voir avec le fait que les unes coûtent 800$ par mois, alors que les seconds plusieurs millions l’unité — sans l’avantage d’être humains et de savoir improviser. Un jour, les machines seront peut-être assez sophistiquées pour savoir improviser, mais je ne crois pas ce sera demain la veille. Beaucoup de chercheurs doutent carrément que cela puisse venir.

Mais surtout, le point qui me fait le plus rigoler, c’est que tout l’argument semble reposer sur la généralisation de la loi de Moore.

Y’a juste un problème. Elle est sur les rotules, les amis.

D’ici la fin de la décennie, la taille des circuits de micro-processeurs devrait descendre à 12 nanomètres (on est actuellement à 14-16, contre 60 il y a dix ans). Problème: à ce niveau, les électrons peuvent sauter d’un circuit à l’autre, et 1/ ça chauffe, 2/ ça corrompt les calculs. En dessous de 12 nanomètres, personne ne sait si on peut faire un processeur qui fonctionne encore. (Il y a par ailleurs un autre problème que je ne connaissais pas, et qui s’appelle la loi de Rock : selon laquelle le coût d’une fonderie de micro-processeurs double tous les quatre ans, à cause des barrières scientifiques croissantes. Ceci explique pourquoi il n’y a plus qu’une poignée de fonderies au niveau mondial, aujourd’hui…)

Rendements croissants? Plutôt coup d’arrêt. Mais est-ce si grave? Le traitement de texte moyen a aujourd’hui sensiblement les mêmes fonctionnalités qu’il y a 20 ans (rendements décroissants). Les jeux vidéos sont plus beaux, mais ils procurent autant d’amusement qu’il y a 20 ans, pour des équipes de production de plus en plus importantes (rendements décroissants). Toujours impressionnés ?

Xavier Portebois : L’article donne beaucoup trop d’importance à la loi de Moore, et c’est une erreur – Kurzweil en parle, oui, mais il ne base absolument pas son argumentaire dessus.

Quant aux limites citées, elles concernent les technologies actuelles, or on parle de plus en plus transistors optiques (pouvant traiter plusieurs fréquences en parallèle) et de puces à étage (pour augmenter le ratio au cm cube).

Et je ne crois réellement pas que les limitations de Moore puissent ralentir sur plusieurs décennies l’arrivée de la singularité. Au niveau du décodage ADN, actuellement on explose la loi de Moore d’une puissance 10, et niveau IA, on arrive à faire aujourd’hui des trucs simplement inimaginables y’a dix ans. Il suffit de gaps techno – NGS pour la génétique, deep learning avec enfin des données pour les IA. Suffirait que les quamputers deviennent enfin viables et c’est reparti pour un cycle complet.

Donc oui, je suis toujours impressionné, parce que je ne vois aucune raison valide à ce que tout ça s’arrête maintenant. Et « j’arrive pas maintenant à imaginer une techno dépassant les problèmes qu’on rencontre actuellement » n’est pas une réponse valide. :-)

Et merde, les jeux procurent autant d’amusement qu’il y a vingt ans ? Sérieux ? Tu veux que je t’envoie une Atari pour que tu puisses jouer à ET ou bien ? :-)

JC : Transistors optiques : oui, on voit déjà ça sur la fibre optique. Mais d’ici à ce que cela arrive dans les microprocesseurs, et qu’on sache miniaturiser assez pour atteindre la même puissance que le silicium, il va s’écouler plus que les 3-5 ans qui nous séparent des 12nm. Même remarque sur les ordinateurs quantiques.

Puces à étage : j’en ai vu passer, oui. C’est intéressant mais ce n’est pas encore sûr d’être la panacée (notamment, si tu rajoutes une couche, tu aggraves les problèmes de chaleur).

Note d’ailleurs que d’une certaine façon, ajouter une dimension, c’est déjà ce qu’on fait depuis 5-10 ans, avec les architectures multi-core : puisqu’on a du mal à rendre les processeurs plus puissants, maintenant on les associe à 2, à 4, à 8… Mais ce faisant, tu augmentes la capacité de calcul, pas entièrement la vitesse: chaque processeur va aussi vite qu’avant, c’est juste qu’ils se partagent la tâche. Et souvent, ils doivent attendre que les autres aient fini leurs calculs avant de pouvoir passer à la suite. Adosser 4 puces ne résulte pas en 4x moins de temps de calcul : rendements décroissants.

Appliquer la loi de Moore au séquençage ADN ne me semble pas un enchaînement logique tout à fait pertinent : oui, il y a des rendements croissants lorsqu’une technologie se développe, c’est normal, et tous les développements ne sont pas forcés de suivre la règle d’un doublement de puissance tous les 18 mois. Certains vont plus vite, d’autres moins. Ces lois (et l’article a le mérite de l’admettre) ne sont jamais que des objets empiriques, au final.

Un détail amusant sur l’ADN, qui m’enthousiasmait moi aussi beaucoup, au point que j’ai payé pour faire analyser le mien : en réalité, cela ne fournit que peu d’informations pertinentes, dans l’état actuel de la science. Pour te donner un exemple, j’aurais « 15% de chances de souffrir de fibrillation atriale » : c’est génial, mais ce n’est pas le cas, et en fait le problème ne peut être décelé et confirmé que par un examen médical. C’est pourquoi la FDA vient d’interdire ces tests ADN : la grande majorité des maladies n’ont pas une mais une multitude de causes (les gènes pour sûr, mais aussi le style de vie, l’environnement, les virus… voire ce qu’on a découvert plus récemment et qui s’appelle l’épigénétique, càd comment certains gènes peuvent être activés ou désactivés au fil des générations). Par conséquent ces tests n’ont pas la valeur d’un véritable diagnostic et inquiétaient les gens pour rien.

Au lieu de devenir de plus en plus utiles (rendements croissants), ces tests ADN ont montré… leurs limites ! Mais c’est peut-être une chose que Google n’a pas envie d’admettre, puisque la femme de Sergey Brin, Anne Wojcicki, dirige le plus gros laboratoire de séquençage commercial, 23andme.

Et sur les jeux, je maintiens mon point : un gamin d’il y a 30 ans était ravi de passer des heures sur un Captain Blood, programmé par deux personnes seulement (les grands Didier Bouchon et Philippe Ulrich). Aujourd’hui, il passera également des heures sur des jeux somptueux certes, mais qui ont été programmés par des équipes de centaines de personnes. L’amusement de l’utilisateur est le même (il était ravi à l’époque, il est toujours ravi aujourd’hui), mais il a fallu beaucoup plus de gens pour arriver au même résultat. Et d’ailleurs, quelque part, c’est plutôt un contre-exemple assez intéressant, face à toutes ces craintes de disparition du travail !

Ah, et ce faisant oui, il se trouve que pour certains jeux, je préfère la version ancienne. Civilization I par exemple: avec les raccourcis clavier, il était possible de faire un partie entière (et satisfaisante) en moins de 2h, ce qui est devenu impossible avec les raffinements des versions ultérieures. Qui plus est, je me fiche un peu de l’amélioration des graphismes : en fait, les symboles étaient plus lisibles que le rendu cinématographique des unités. Mon utilité marginale a décru. Rendements décroissants…

XP : Nan mais je citais le NGS ou les transistors optiques comme j’aurais pu dire les neural network chips d’Intel : un cas où le hardware n’a pas de gros progrès technique, juste le fait qu’il est câblé de manière à répondre à de nouveaux besoins.

Et ok, au pire on aura un ralentissement de quelques années. Peut-être quelques décennies. Allez, disons cent ans, d’ici qu’on trouve une nouvelle techno de folie. Mais on va quand même toujours dans la même direction. Ça me rappelle l’histoire de l’IA : dans les années 70, après des débuts incroyables, est survenu l’AI winter, et tout le monde disait que c’était mort, qu’on y arriverait jamais, qu’on ferait rien de bon de tout ça. Et là, ces dix dernières années, on est reparti sur une courbe de progrès exponentielle. Fallait juste attendre la nouvelle étincelle (ici, l’accès à quantité de données que le big data a permis).

Quant aux jeux vidéo, l’argument est pas mal – surtout que je joue beaucoup à des jeux retro – mais je pense qu’il met juste en exergue le fait que nos propres attentes ont crû de manière exponentielle. Je veux dire, les nouveaux plateformers 8bit qu’on peut trouver ont peut-être la gueule d’un vieux jeu Nes, ils sont en réalité bien meilleurs ; suffit d’en relancer un pour se rappeler soudain combien ils étaient limités ou répétitifs.

Après, l’argument tombe quand tu vois des succès de jeux indé réalisés vite fait bien fait, et tu vois que la question des jeux vidéo n’est pas une question de technologie (ce que tendent à nous faire croire les gros studios), mais d’idée. Eggnog a été codé en 48h, c’est un succès de tarés dans les LAN ; Fez est l’oeuvre d’une personne, Super Meat Boy d’un petit studio, Witcher 1 a été fait de manière limite artisanale, etc. etc.

Ce serait comme dire que les technologies n’améliorent et apporter pour preuve que les blockbusters au ciné d’aujourd’hui sont moins intéressants que les films d’il y a trente ans – en prenant soin d’oublier les petits films indé qui claquent. C’est pas une question de techno mais de marché et de volonté des industries derrière.

JC : Mon point se limite à dire qu’il y a toujours eu des phases de rendements croissants lorsqu’une invention survient (la roue, la presse, le moteur à vapeur…), mais que cet article ne semble malheureusement rien réinventer de plus que le fil à couper le beurre. Par ailleurs, une fois que ces technologies sont installées, il y a toujours une phase de rendement décroissants et une arrivée à maturité : par exemple, avec une voiture on va certes beaucoup plus vite qu’à pied, mais aujourd’hui avec les bouchons et les feux, on ne traverse pas Londres plus vite qu’on ne pouvait le faire à cheval ou en calèche au XIXème siècle (il faudrait que je retrouve l’étude, citée par The Economist, elle était assez sidérante). Idem pour les trains (avec le TGV, on va 2-3x plus vite qu’un train normal, mais la ligne coûte 15x plus à construire — rendements décroissants). Idem, je soupçonne à terme, pour l’informatique : dans cent ans, on aura sans doute des processeurs plus puissants. Mais un CPC 6128 était déjà suffisant pour faire tourner un traitement de texte : les versions successives de Word n’ont amené que des améliorations de plus en plus mineures. Voire des détériorations (Clippy).

Les IA : je partage ton enthousiasme, mais je maintiens mon point sur la capacité d’improvisation. Aujourd’hui on voit un regain d’intérêt pour les réseaux neuronaux, et c’est très bien. Mais ça ne fait que remplacer un algorithme défini de façon externe (programme), par un algorithme auto-défini (multiples simulations, jusqu’à ce que la machine trouve la règle qui permet d’arriver au même résultat que la réalité). Quand tu lâches ensuite la machine dans une situation qu’elle n’avait pas rencontrée lors des simulations, elle est complètement perdue, et va devoir patauger pendant 150.000 tentatives (pas forcément possibles, dans la pratique) avant de savoir comment s’adapter.

À terme, on arrivera sans doute à instruire des IA assez pour qu’elles accomplissent de plus en plus de tâches. Mais je ne pense pas que ça viendra du jour au lendemain, parce que leur capacité d’adaptation à la réalité dépend de la qualité de la simulation d’origine.

Qui plus est, je suis de ceux qui pensent que la conscience résulte des sens — en d’autres termes, que l’expérience d’être un humain résulte d’avoir deux yeux, deux jambes, deux bras, dix doigts, un système hormonal, etc. Branche un cerveau humain sur un corps de cafard, et sa conscience, sa vision et son expérience du monde seront totalement différentes.

On pourra — en fait, ça existe déjà — entrer dans un réseau neuronal la totalité de la littérature mondiale, ou la somme des tableaux de Van Gogh, et il pourra produire des imitations très crédibles. Mais n’ayant pas un cœur, des yeux, des sensations, un besoin de se reproduire, une mortalité, des parents, une histoire, une nation… il jugera (s’il en est capable !) la qualité / beauté de sa production selon des critères qui ne sont pas les nôtres : peut-être le succès au box office (auquel cas les IA produiront un opus de pseudo-Valérie Trierwieler tous les jours, joie !), ou si l’IA atteint vraiment une sorte de conscience — quelque chose de complètement étranger à notre expérience, sur la base des sens qu’on aura donnés (ou pas) à cette IA. (Note au passage qu’à moins d’en créer d’autres, cette IA serait bien seule à connaître cette expérience, et n’aurait personne avec qui la partager : alors à quoi bon faire de l’art ?)

C’est le fond de commerce des futurologues de prolonger les tendances. Tout le monde peut sortir sa règle et prolonger la droite… Le problème, c’est qu’elles s’arrêtent parfois — et c’est ça qui est difficile à prédire.

XP : Totalement d’accord sur les avancées en plateaux des technologies – d’ailleurs, Kurzweil en parle longuement dans ses bouquins, et faut absolument pas le juger sur cet article terriblement réducteur. Je le trouve moi-même optimiste sur les dates qu’il annonce, mais je maintiens qu’il n’y a aucune raison pour qu’on n’y arrive pas d’ici cent ou deux cent ans au pire.

Les IA n’ont pas soixante ans, c’est un domaine ultra-jeune. Les juger incapable par définition de faire quelque chose qu’on n’attribue qu’aux humains, c’est dire « on ne volera jamais » en voyant les frères Wright se crasher pour la dixième fois, alors qu’un siècle plus tard on posait le pied sur la Lune.

Par contre, tu relèves un vrai problème – pour moi peut-être le seul vrai qu’on rencontre actuellement : le problème de la conscience ou Hard Problem of Consciousness comme l’a appelé Chalmers. Depuis Descartes, le seul progrès qu’on ait fait est de remplacer « je pense donc je suis » par « je ressens donc je suis », rien de plus. On a beau imaginer plein d’expériences de pensée, on n’arrive à rien de ce côté là, et si l’upload de notre conscience dans autre chose qu’un bon vieux cerveau nous prive de la conscience, bah on aura fait ça pour rien.

Sinon, je ne pense pas Kurzweil si commercial que ça. Évidemment, il dira que le futur sera incroyable, mais pas juste pour nous vendre sa came. Le mec y croit réellement, se médicamente de manière hardcore pour espérer atteindre la date où on pourra vivre éternellement, sa vie est assez ouf en fait. :-)

Alors, que tirer de tout ça ?

  • D’abord, à nos initales, on a l’impression de voir le Christ en plein monologue schizophrénique ;
  • Prédire le futur, surtout sur une échelle de quelques décennies, c’est chaud ; la vitesse à laquelle l’Humanité invente de nouveau trucs a beau être exponentiellement croissante, le progrès n’en demeure pas moins balloté d’avant en arrière par la loi des rendements décroissants et le cycle de vie de toute technologie ;
  • Tenter de réduire ce genre de débat à un domaine précis (l’IA, les jeux vidéo, l’art, ou la génétique), c’est à la fois impossible et réducteur, au final, tant chaque domaine est également piloté par des critères qui lui sont propres (et on n’a aucun ceteris paribus sous la main).

Bref. Si j’ai accepté de partager ce transcript qui, finalement, va un peu nulle part, c’est parce que des tas de sujets très intéressants y ont été abordés et je me disais que vous les partager pouvait être sympa – j’en regrette même qu’on se soit interrompu quand on commençait à parler de la problématique de conscience des machines, parce que là, y’a du gros potentiel. Et si vous avez des trucs à rajouter, faites-vous plaisir !

Et je vous laisse sur une image rigolote avec une citation de D&D (cliquez, y’en a plein d’autres).

Répondre