Le syndrome de Cassandre, tiré de la mythologie grecque, décrit une situation où les avertissements et prédictions de malheur sont ignorés ou rejetés, malgré leur justesse. Dans le contexte actuel de la tech, et plus particulièrement de l’intelligence artificielle (IA), ce syndrome trouve une résonance particulière et je l’ai éprouvé de nombreuses fois.
En effet, par le passé de nombreuses modes techniques étaient mises en avant et bénéficiaient d’un support médiatique absolument submergeant sans pour autant avoir des fondements solides. J’ai averti à de nombreuses reprises que ces modes étaient futiles et, à chaque fois, mes opposants répétaient que c’est parce que je “n’avais rien compris”. Bien évidemment, mon parcours technique passé me permettait de comprendre parfaitement que ces modes étaient des exagérations abusives d’un épiphénomène qui ne méritait pas une telle couverture. Par exemple, quand tout le monde chantait les louanges de la blockchain, j’étais un des rares à mettre l’accent sur le fait que la blockchain ne pouvait pas et ne pourrait pas être tout pour tous.
Et c’est sans fausse modestie que je constate que j’ai eu raison à chaque fois (eh oui…). Ceci dit, c’est peu de choses d’avoir raison si on ne peut articuler sa vision et convaincre son auditoire.
On est de nouveau aujourd’hui dans le même cas de figure avec l’IA générative. L’adhésion est massive et pourtant, elle ne repose pas sur des raisonnements techniques mais plutôt sur la volonté de croire envers et contre tout. Croire (oui, il s’agit bien de foi) qu’il s’agit enfin de la solution miracle qu’on espérait depuis longtemps.
Plusieurs raisons expliquent pourquoi essayer de convaincre que l’IA pourrait n’être qu’une bulle est restée vain jusqu’à aujourd’hui. Tout d’abord, l’effet de groupe joue un rôle majeur. Lorsque la majorité des acteurs d’un secteur croient en à ce qui est présenté comme une avancée technique majeure (et souvent comparée à une nouvelle “révolution industrielle”) et investissent massivement, il devient difficile de remettre en question cette croyance collective. Les sceptiques sont souvent marginalisés, leurs arguments étant perçus comme des entraves au progrès.
On connaît la citation « Il est plus facile de tromper les gens que de les convaincre qu’ils ont été trompés » qui est souvent attribuée à Mark Twain. Eh bien, c’est tout à fait ça le syndrome de Cassandre : vous ne pouvez pas convaincre un auditoire qui ne veut pas entendre la vérité. Les raisonnements techniques qui ne vont pas dans le sens de la propagande diffusée par les promoteurs de l’IA sont ignorés voire moqués et au final mis de côté.
Cela peut se comprendre vu l’ampleur du battage médiatique et le relais que donne les médias à la propagande tech poussée par les principaux promoteurs et bénéficiaires de cette mode. Pour le public non averti, l’IA générative est souvent perçue comme une révolution technologique (je déteste cette expression !!) majeure, porteuse de promesses immenses en termes d’innovation, d’efficacité et de progrès. Les investissements massifs (bien trop massifs, d’où la bulle actuelle !), les avancées spectaculaires lors des démonstrations (mais que, ô surprise, on ne peut reproduire sur le terrain…) et les discours enthousiastes des leaders d’opinion et des médias créent une atmosphère d’optimisme, voire d’euphorie. Dans ce contexte, ceux qui tentent de tempérer cet enthousiasme en mettant en garde contre les risques et les limites de l’IA sont souvent perçus comme des pessimistes, voire des alarmistes ou même tout simplement comme des abrutis qui une fois de plus “n’ont rien compris”.
Ensuite, les intérêts économiques en jeu sont considérables. Les grandes entreprises de la tech, les investisseurs et les gouvernements ont tous des intérêts financiers et stratégiques dans le développement de l’IA. Reconnaître que l’IA pourrait n’être qu’une bulle reviendrait à admettre que ces investissements pourraient être risqués, ce qui est difficilement acceptable pour ceux qui ont beaucoup à perdre. Sans compter toute la masse des suiveurs qui préfèrent bêler avec le troupeau plutôt que de reconnaître qu’ils n’ont pas fait l’effort d’examiner avec suffisamment de sérieux cette nouvelle tendance.
De plus, la complexité technique de l’IA rend difficile une évaluation objective de ses capacités et de ses limites. Les progrès apparemment rapides et les succès médiatisés (mais limités à des démonstrations bien orchestrées et qui se révèlent quelquefois être des manipulations…) créent une impression de potentiel illimité, tandis que les échecs et les limites (qui commencent à remonter à la surface avec le temps) sont souvent minimisés ou ignorés. Dans ce contexte, les mises en garde des sceptiques peuvent sembler déconnectées de la réalité et être le produit de quelques aigris qui sont furieux d’avoir loupé le train (FOMO).
Enfin, l’IA est souvent présentée comme une solution miracle à de nombreux problèmes sociaux, économiques et environnementaux. C’est d’ailleurs un des marqueurs du solutionnisme : à chaque fois présenter une avancée technique comme étant LA solution qu’on attendait.
Cette vision utopique (voire délirante) rend difficile la remise en question de ses éventuels bénéfices potentiels. Ceux qui mettent en garde contre les limites de l’IA sont souvent perçus comme des obstacles à la réalisation de ces promesses. C’est ainsi que, par exemple, le problème des “hallucinations” (je n’aime pas ce terme qui est sémantiquement erroné : seuls les êtres sensibles peuvent avoir des hallucinations puisque ce phénomène est lié à la perception sensorielle) est toujours présenté comme étant en voie de résolution alors que les études récentes montrent que, au contraire, le problème est en train de s’aggraver. Ceci n’est pas propre au domaine de l’IA générative puisque, par exemple, dans le domaine de la fusion nucléaire on retrouve les mêmes raisonnements optimistes qui sont hélas démenti par les faits année après année, décennie après décennie.
Encore une fois, c’est totalement compréhensible. Pourquoi croire qu’un individu isolé ou qu’un groupe d’individus isolés pourrait avoir raison contre la masse immense de ceux qui croient en ce discours. Et pourtant, c’est arrivé à chaque fois. En effet, à chaque fois qu’une mode futile était mise en avant il y avait bien un petit groupe d’observateurs qui démentait la tendance générale et qui avançait des arguments qui se sont révélés être exacts après coup.
La première vraie question c’est “est-ce qu’on est bien en présence d’une bulle financière ?”. Il suffit de regarder les chiffres pour s’en convaincre : depuis 3 ans on est dans une escalade systématique qui atteint des sommets jamais vu, comme par exemple la valorisation récente de Nvidia qui a battu tous les records. Donc oui, il s’agit bien d’une bulle et nous savons tous comment les bulles se terminent.
Aujourd’hui nous sommes moqués et présentés comme des sceptiques de l’IA qui ont forcément tort. Lorsque cette bulle éclatera (ce qui ne manquera pas d’arriver), on s’apercevra qu’hélas, nous avions raison. Mais pour autant, cela ne permettra pas d’améliorer la sagesse collective puisque une nouvelle mode technique fera aussitôt éruption. Je suis persuadé que tous les zélateurs de l’IA vont se reporter sur les ordinateurs quantiques. Et, encore une fois, ceux qui soulignent les limites de ce nouveau type d’ordinateur seront moqués et minimisés. Alors qu’il suffit de se pencher sérieusement sur cette question pour s’apercevoir que les ordinateurs quantiques sont encore très loin d’être au point et quand ils seront enfin matures, ils seront plus utiles aux chercheurs du domaine de la physique quantique qu’aux informaticiens.
Il est tout à fait vraisemblable qu’il n’y aura jamais d’informatique quantique même quand les ordinateurs quantiques seront au point. Je vous l’annonce aujourd’hui, notez bien mes paroles.
Toujours important d’avoir l’avis d’un connaisseur.
Merci beaucoup.
Nous devons profiter des leçons récentes pour élargir le paradoxe de Moravec. Ce paradoxe est généralement résumé ainsi « le plus difficile en robotique est souvent ce qui est le plus facile pour l’homme ».
Le paradoxe de Moravec, formulé par Hans Moravec dans les années 1980, reste d’une actualité frappante à l’ère de l’intelligence artificielle et de la robotique moderne. Ce paradoxe souligne une observation contre-intuitive : les tâches qui demandent un haut niveau de raisonnement abstrait et de logique, comme les jeux d’échecs ou les calculs mathématiques, sont relativement faciles à automatiser. En revanche, les compétences sensori-motrices et sociales de base, que même un jeune enfant maîtrise aisément, comme la reconnaissance d’objets ou la compréhension du langage naturel, sont extrêmement difficiles à reproduire artificiellement. Notez bien ici qu’il s’agit de *compréhension* du langage naturel, pas d’imitation statistique, nuance importante !
En s’inspirant de la réflexion de Moravec (toujours valable, des décennies après avoir été formulée !), je propose ceci : ce qui est spectaculaire lors des démonstrations n’est pas forcément utile et applicable dans le monde réel.
En effet, depuis que nous sommes sous la dictature de la pensée unique de l’IA générative, la puissance de “l’effet démo” n’a jamais été aussi grande et aussi bien démontrée. Nous sommes véritablement hypnotisés par les prouesses supposées de ces systèmes manipulés par leurs promoteurs. De plus, ces derniers ont recours à une propagande écrasante relayée complaisamment par des médias qui ne jouent plus leur rôle critique (et ce depuis longtemps et pas seulement dans le domaine technique, hélas. On peut le vérifier en constatant que les propos délirants de Sam “scam” Altam ou de Dario “lie” Amodei sont systématiquement repris et diffusés sans la moindre nuance comme s’il s’agissait de paroles d’évangiles (ce qu’elles sont pour certains… je les plains).
La vacuité de l’effet démo a pourtant été démontrée à de nombreuses occasions. Un exemple : en 2018, Google annonce et fait la démonstration (spectaculaire) d’un assistant numérique capable de passer des appels téléphoniques à votre place pour réserver une place au restaurant. Cela représente une percée importante et la démonstration laisse penser que cette fonction pratique (et bluffante !) est désormais à portée de main… Las, en 2022, Google termine le projet sans autre forme de procès.
Si vous arrivez à rester sourd à la propagande des promoteurs de l’IA et si vous gardez en tête “ce qui est spectaculaire lors des démonstrations n’est pas forcément utile et applicable dans le monde réel”, alors vous faites partie des gens pour lesquels tous les espoirs sont permis.