Je vous propose cet article rédigé le 8/07/2024 par Edward Zitron, un blogueur américain que je viens de découvrir… J’ai utiliser Google Translation pour vous proposer une version traduite (en français) de cet excellent article mais la version originale est disponible à https://www.wheresyoured.at/pop-culture/.
Alors, pourquoi vous proposer cet article ?
Eh bien, je l’ai lu et la propos est tellement en phase avec ce que je pense du sujet (le hype actuel sur l’IA) que je n’ai pu résister à le publier sur mon blog (en français quand même, un minimum de valeur ajoutée !).
Voilà, je n’ai pas besoin d’en ajouter, je vous laisse lire cette longue mais détaillée et bien documentée charge sur le délire de l’IA (qui ne va pas tarder à exploser en plein vol !)…
=========
Culture pop
EDOUARD ZITRON – 8 JUILLET 202418 MA LECTURE
Il y a une semaine et demie, Goldman Sachs a publié un rapport de 31 pages (intitulé « Gen AI : Too Much Spend, Too Little Benefit ? ») qui comprend certains des ouvrages les plus accablants sur l’IA générative que j’ai jamais vu. Et oui, ce son que vous entendez est la lente déflation de la bulle que j’ai a été vous avertissant à propos depuis mars.
Le rapport couvre les avantages de l’IA en matière de productivité (qui, selon Goldman, sont probablement limités), les rendements de l’IA (qui seront probablement beaucoup plus limités que prévu) et les demandes d’énergie de l’IA (qui sont probablement si importantes que les sociétés de services publics devront dépenser près de 40 % plus dans le les trois prochaines années pour répondre à la demande des hyperscalers comme Google et Microsoft).
Ce rapport est si important parce que Goldman Sachs, comme toute banque d’investissement, ne se soucie pas des sentiments des autres, à moins que cela ne soit rentable. Il se fera un plaisir de vanter n’importe quoi s’il pense que cela rapportera de l’argent. En mai dernier, il a été affirmé que l’IA (pas seulement l’IA générative) était “montrant des signes très positifs d’une éventuelle augmentation du PIB et de la productivité“, même si ledit rapport rappelle constamment que l’IA n’a pas encore eu d’impact sur la croissance de la productivité, et déclare que seulement 5 % environ des entreprises déclarent utiliser l’IA générative dans leur production régulière.
Le fait que Goldman se soit soudainement tourné vers le mouvement de l’IA suggère qu’il est extrêmement inquiet quant à l’avenir de l’IA générative, avec presque tout le monde d’accord sur un point essentiel : plus cette technologie met de temps à faire gagner de l’argent aux gens, plus elle devra gagner d’argent. .
Le rapport comprend un entretien avec l’économiste Daron Acemoglu du MIT (page 4), un professeur de l’Institut qui a publié un article en mai intitulé “La macroéconomie simple de l’IA» qui affirmait que « l’augmentation de la productivité américaine et, par conséquent, de la croissance du PIB grâce à l’IA générative s’avérera probablement beaucoup plus limitée que ce que pensent de nombreux prévisionnistes. » Un mois n’a fait que rendre Acemoglu plus pessimiste, déclarant que « des changements véritablement transformateurs ne se produiront pas ». rapidement et peu – voire aucune – se produiront probablement au cours des 10 prochaines années », et que la capacité de l’IA générative à affecter la productivité mondiale est faible parce que « bon nombre des tâches que les humains effectuent actuellement… sont multiformes et nécessitent des tâches concrètes ». interaction, que l’IA ne sera pas en mesure d’améliorer matériellement de sitôt. »
Ce qui rend cette interview – et vraiment cet article – si remarquable, c’est la façon dont elle attaque de manière approfondie et agressive tous les éléments de garantie marketing dont dispose le mouvement de l’IA. Acemoglu remet spécifiquement en question la croyance selon laquelle les modèles d’IA deviendront simplement plus puissants à mesure que nous leur injecterons plus de données et de capacité GPU, et posera spécifiquement une question : que signifie « doubler les capacités de l’IA » ? Comment cela améliore-t-il réellement quelque chose comme, par exemple, un représentant du service client ?
Et c’est un problème spécifique avec le baratin des fantasmes de l’IA. Ils s’appuient fortement sur l’idée que non seulement ces grands modèles de langage (LLM) obtiendront plus puissant, mais devenir plus puissant lui donnera d’une manière ou d’une autre le pouvoir de faire… quelque chose. Comme le dit Acemoglu, “que signifie doubler les capacités de l’IA ?”
Non, vraiment, que signifie réellement « plus » ? Même si l’on pourrait dire que cela signifiera plus rapide processus génératifs, il n’y a vraiment pas de baromètre pour savoir à quoi ressemble le « meilleur », et c’est peut-être pour cela que ChatGPT, Claude et d’autres LLM n’ont pas encore fait un pas au-delà de la capacité de générer des choses. Claude LLM d’Anthropic pourrait être “meilleur de sa catégorie“, mais cela signifie seulement que c’est plus rapide et plus précis, ce qui est cool mais non l’avenir ou révolutionnaire ou même forcément bon.
Je dois ajouter que ce sont les questions que moi – et d’autres personnes écrivant sur l’IA – aurais dû poser tout le temps. L’IA générative génère des résultats basés sur des entrées et des requêtes textuelles, des requêtes qui peuvent être tout aussi spécifiques et complexes, mais la réponse est toujours, aussi évidente que cela puisse paraître, générée de manière fraîche, ce qui signifie qu’il n’y a pas de « connaissance » réelle ou, en fait, « l’intelligence » opérant dans n’importe quelle partie du processus. En conséquence, il est facile de voir comment cela se produit mieux, mais il est beaucoup plus difficile, voire impossible, de voir comment l’IA générative mène plus loin que là où nous en sommes déjà.
Comment GPT – un modèle basé sur un transformateur qui génère des réponses de manière probabiliste (comme dans quelle partie de la génération suivante est la plus susceptible d’être la bonne) entièrement basée sur des données d’entraînement – fait-il autre chose que générer des paragraphes de texte parfois précis ? Comment l’un de ces modèles peut-il même différencier quand la plupart d’entre eux sont formés sur les mêmes données de formation dont ils manquent déjà?
La crise des données de formation n’attire pas suffisamment l’attention, mais elle est suffisamment grave pour qu’elle puisse potentiellement arrêter (ou ralentir considérablement) tout développement de l’IA dans un avenir proche. En un seul article, publié dans la revue Computer Vision and Pattern Recognition, a constaté que pour obtenir une amélioration linéaire des performances du modèle, vous avez besoin d’une quantité de données exponentiellement importante.
Ou, en d’autres termes, chaque étape supplémentaire devient de plus en plus (et exponentiellement) plus coûteuse à franchir. Cela implique un coût financier élevé – non seulement pour l’obtention des données, mais aussi pour le calcul requis pour les traiter – le PDG d’Anthropic, Dario Amodei, affirmant que les modèles d’IA actuellement en développement coûteront jusqu’à 1 milliard de dollars à former, et d’ici trois des années nous pouvons voir des modèles qui coûtent jusqu’à « dix ou cent milliards » de dollars, soit environ trois fois le PIB de l’Estonie.
Acemoglu doute que les LLM puissent devenir superintelligents et que même ses estimations les plus prudentes des gains de productivité « pourraient s’avérer trop importantes si les modèles d’IA s’avèrent moins efficaces pour améliorer des tâches plus complexes ». Et je pense que c’est vraiment la racine du problème.
Tout cet enthousiasme, chaque seconde de battage médiatique haletant ont été construits sur l’idée que l’industrie de l’intelligence artificielle – dirigée par l’IA générative – va d’une manière ou d’une autre révolutionner tout, du robotique à La chaîne d’approvisionnement, malgré le fait que l’IA générative ne va pas réellement résoudre ces problèmes car il n’est pas conçu pour le faire.
Acemoglu a cependant des choses positives à dire, par exemple que des modèles d’IA pourraient être formés pour aider les scientifiques à concevoir et à tester de nouveaux matériaux (ce qui s’est passé l’année dernière) — son verdict général est assez sévère : l’utilisation de l’IA générative et « trop d’automatisation trop tôt pourraient créer des goulots d’étranglement et d’autres problèmes pour les entreprises qui n’ont plus la flexibilité et les capacités de dépannage qu’offre le capital humain ». Essentiellement, remplacer les humains par l’IA pourrait tout casser si vous êtes un de ces patrons qui ne savent pas vraiment de quoi ils parlent.
Le rapport comprend également un nettoyeur de palette pour le démon excentrique de l’IA à la page 6, où Joseph Briggs de Goldman Sachs soutient que l’IA générative “conduira probablement à une hausse économique significative” basée – et je ne vous merde pas – entièrement sur le idée selon laquelle l’IA remplacera les travailleurs dans certains emplois puis leur permettre de trouver un emploi dans d’autres domaines. Briggs affirme également que « l’automatisation complète des tâches exposées à l’IA qui sont susceptibles de se produire sur un horizon plus long pourrait générer des économies de coûts significatives », ce qui suppose que l’IA générative (ou l’IA elle-même) remplacera en réalité ces tâches.
Je dois également ajouter que contrairement à toutes les autres interviews du rapport, Briggs mélange continuellement l’IA et l’IA générative, et suggère à un moment donné que « les récents progrès de l’IA générative » « préfigurent l’émergence d’une « superintelligence ».
J’ai inclus cette partie du rapport parce que parfois — très rarement — quelqu’un me suggère de ne pas envisager des deux côtés. La raison pour laquelle je n’inclut généralement pas les deux côtés de cet argument est que le côté hype de l’IA avance généralement des arguments basés sur l’hypothèse que des choses vont se produire, comme un modèle de transformateur qui génère de manière probabiliste la partie suivante d’une phrase ou une image qui, d’une manière ou d’une autre, se produira. gagner en sensibilité.
Francois Chollet — an AI researcher at Google — a récemment soutenu que les LLM ne peuvent pas conduire à l’AGI, expliquant (en détail) que les modèles comme GPT ne sont tout simplement pas capables du type de raisonnement et de théorie qui fait fonctionner le cerveau humain. Chollet note également que même les modèles spécialement construits pour accomplir les tâches du Corpus d’abstraction et de raisonnement (un test de référence pour les compétences en IA et la véritable « intelligence ») ne le font que parce qu’ils ont reçu des millions de points de données de personnes résolvant le test, ce qui revient un peu à mesurer le QI de quelqu’un en se basant sur ses études très difficiles pour compléter un QI. essai, sauf encore plus bête.
La raison pour laquelle j’évoque soudainement les superintelligences – ou AGI (intelligence artificielle générale) – est que, dans chaque défense de l’IA générative, il y a une tentative délibérée de contourner le problème qui l’IA générative n’automatise pas vraiment de nombreuses tâches. Bien qu’il soit efficace pour générer des réponses ou créer des éléments basés sur un demande, il n’y a pas de réelle interaction avec la tâche, ni avec la personne qui lui confie la tâche, ni avec la prise en compte de ce dont la tâche a besoin – juste l’abstraction de « chose dite » en « sortie générée ».
Des tâches comme prendre la commande de quelqu’un et la transmettre à la cuisine d’un fast-food peuvent sembler élémentaires à la plupart des gens (je n’écrirai pas facile, travailler dans la restauration rapide, c’est nul), mais ce n’est pas pour un modèle d’IA qui génère des réponses sans vraiment comprendre le sens de l’un des mots. L’année dernière, Wendy’s a annoncé qu’elle intégrerait son système de commande génératif “FreshAI” dans certains restaurants, et il y a quelques semaines c’était a révélé que le système nécessite une intervention humaine sur 14% des commandesSur Reddit, un utilisateur a noté que l’IA de Wendy nécessitait régulièrement trois tentatives pour la comprendre, et je te couperais la parole si tu ne parlais pas assez vite.
Château Blanc, qui mis en œuvre un système similaire en partenariat avec Samsung et SoundHound, s’en sort à peine mieux, avec 10% des commandes nécessitant une intervention humaine. Le mois dernier, McDonald’s a abandonné son propre système de commande d’IA – qu’il avait construit avec IBM et déployé dans plus de 100 restaurants – probablement parce qu’il n’était tout simplement pas très bon, un client ayant appelé pour littéralement des centaines de nuggets de poulet. Cependant, pour être clair, le système de McDonald’s n’était pas basé sur l’IA générative.
À tout le moins, cela illustre le décalage entre ceux qui construisent des systèmes d’IA et à quel point (ou plutôt à quel point ils comprennent peu) les emplois qu’ils souhaitent éliminer. Un peu d’humilité fait beaucoup de bien.
Une autre chose à noter est qu’en plus de l’IA générative qui gère ces commandes, Wendy’s a toujours besoin d’êtres humains pour préparer cette foutue nourriture. Malgré tout ce battage médiatique, toute cette attention médiatique, tous ces investissements incroyables, les prétendues « innovations » ne semblent même pas capables de remplacer les emplois pour lesquels elles sont censées – non pas que je pense qu’elles devraient, juste que J’en ai marre qu’on me dise que cet avenir est inévitable.
La réalité est que l’IA générative n’est pas douée pour remplacement d’emplois, mais marchandiser des actes de travail distincts, et, ce faisant, les premiers emplois créatifs qui aident les gens à constituer des portefeuilles pour progresser dans leur secteur..
Les indépendants voient leurs moyens de subsistance remplacés par des patrons utilisant l’IA générative ne sont pas tant « remplacés » qu’on leur montre à quel point de nombreux patrons ont peu de respect pour leur métier ou pour le client qu’il est censé servir. Les réviseurs et les artistes conceptuels fournissent un travail bien plus précieux que n’importe quelle IA générative. une économie dominée par des managers qui n’apprécient pas (ou ne participent pas) au travail signifie que ces emplois sont attaqués par les LLM qui produisent des trucs qui ont tous la même apparence et le même son, au point que les rédacteurs sont désormais payés pour les aider à paraître plus humains.
L’un des malentendus fondamentaux des patrons qui remplacent ces travailleurs par l’IA générative est que vous ne demandez pas simplement quelque chose, mais vous externalisez le risque et la responsabilité. Lorsque j’engage un artiste pour créer un logo, je m’attends à ce qu’il m’écoute, puis ajoute sa propre touche, puis nous ferons des allers-retours avec des ébauches jusqu’à ce que nous obtenions quelque chose qui me plaise. Je les paie non seulement pour leur temps, leurs années d’apprentissage de leur métier et le résultat lui-même, mais pour que le fardeau ultime de la production ne soit pas le mien et que leur expérience signifie qu’ils peuvent s’adapter à des circonstances auxquelles je n’aurais peut-être pas pensé. de. Ce ne sont pas des choses que vous pouvez entraîner dans un ensemble de données, car elles sont dérivées d’expériences internes et externes au processus de création.
Bien que l’on puisse « apprendre » à une IA générative à quoi ressemblent un milliard d’images, l’IA n’a pas de crampes aux mains ni d’appel à 20 heures disant qu’elle « a besoin d’elle pour apparaître davantage ». Il n’a pas d’humeurs et ne peut pas non plus les déduire des médias écrits ou visuels, car les émotions humaines sont extrêmement bizarre, tout comme nos humeurs, nos corps et nos existences en général. Je me rends compte que tout cela est un peu fleuri, mais même l’exemplaire le plus médiocre jamais écrit est, à un certain niveau, un recueil d’expériences. Et le remplacement complet d’une création est très peu probable si vous le faites en copiant un million d’éléments des devoirs de quelqu’un d’autre.
La partie la plus fascinante du rapport (page 10) est une interview de Jim Covello, responsable de la recherche sur les actions mondiales chez Goldman Sachs. Covello n’est pas un nom que vous aurez entendu à moins que vous soyez, pour une raison quelconque, un grand passionné de semi-conducteurs, mais il a toujours été du bon côté de l’histoire, nommé meilleur analyste des semi-conducteurs par II Research pendant des années, a réussi à rattraper le ralentissement des fondamentaux de plusieurs grandes sociétés de puces bien avant d’autres.
Et Jim, sans équivoque, pense que la bulle de l’IA générative est pleine de merde.
Covello estime que les dépenses combinées de tous les volets du boom de l’IA générative – centres de données, services publics et applications – coûteront mille milliards de dollars au cours des prochaines années seulement, et pose une question très simple : « quel problème de mille milliards de dollars l’IA résoudra-t-elle ? ” Il note que « le remplacement des emplois à bas salaires par une technologie extrêmement coûteuse est fondamentalement à l’opposé des transitions technologiques antérieures [dont il a] été témoin au cours des trente dernières années ».
Un mythe particulier que Covello dissipe est celui de la comparaison de l’IA générative »aux débuts d’Internet“, notant que “même à ses débuts, Internet était une solution technologique peu coûteuse qui permettait au commerce électronique de remplacer les solutions existantes coûteuses”, et que “la technologie de l’IA est exceptionnellement coûteuse, et pour justifier ces coûts, la technologie doit être capable de résoudre des problèmes complexes, ce pour quoi il n’est pas conçu. »
Covello rejette également l’idée selon laquelle la technologie est coûteuse au départ et devient moins chère au fil du temps en la qualifiant d'”histoire révisionniste”, et que “le monde de la technologie est trop complaisant dans l’hypothèse que les coûts de l’IA diminueront considérablement avec le temps”. Il note spécifiquement que la seule raison pour laquelle la loi de Moore était capable de permettre des puces plus petites, plus rapides et moins chères était parce que des concurrents comme AMD ont forcé Intel (et d’autres sociétés à rivaliser) – une chose qui ne semble pas vraiment se produire avec Nvidia, qui a une quasi-mainprise sur les GPU nécessaires pour gérer l’IA générative.
Pendant que là sont les entreprises qui fabriquent des GPU destinés au marché de l’IA (en particulier en Chine, où les restrictions commerciales américaines empêchent les entreprises locales d’acheter des cartes de grande puissance comme l’A100 de peur qu’elles ne soient détournées vers l’armée), elles ne le font pas en même temps. échelle, et Covello note que « le marché est trop complaisant quant à la certitude d’une baisse des coûts ».
Il note également que les coûts sont si élevés que même s’ils devaient baisser, il faudrait le faire de manière spectaculaire, et que la comparaison avec les débuts d’Internet (où les entreprises s’appuyaient souvent sur des serveurs à 64 000 $ de Sun Microsystems et il n’y avait pas d’AWS, Linode ou Azure) “n’est rien en comparaison” des coûts de l’IA, et cela même sans inclure le remplacement du réseau électrique, une nécessité pour maintenir ce boom.
Je pourrais probablement écrire l’intégralité de l’interview de Covello, car c’est méchant. Covello ajoute que l’adage courant selon lequel les gens ne pensaient pas que les smartphones seraient grands était faux. Il a assisté à des centaines de présentations au début des années 2000, dont beaucoup comprenaient des feuilles de route qui correspondent précisément au déploiement des smartphones, et qu’aucune feuille de route (ou application géniale) pour l’IA n’a été trouvée.
Il note que les grandes entreprises technologiques n’ont désormais d’autre choix que de s’engager dans la course aux armements en matière d’IA étant donné le battage médiatique (qui poursuivra la tendance aux dépenses massives), et il estime qu’il y a « de faibles chances d’augmentation des revenus liés à l’IA ». en partie parce qu’il ne croit pas que l’IA générative rendra les travailleurs plus intelligents, mais simplement plus capables de trouver de meilleures informations plus rapidement, et que tous les avantages que l’IA générative vous offre peuvent être « arbitrés » parce que la technologie peut être utilisée partout, et donc vous ne peut pas, en tant qu’entreprise, augmenter les prix.
En clair : l’IA générative ne rapporte d’argent à personne car elle ne rapporte pas d’argent supplémentaire aux entreprises qui l’utilisent. L’efficacité est utile, mais ce n’est pas définition de l’entreprise. Il ajoute également que les hyperscalers comme Google et Microsoft « tireront également des revenus supplémentaires » de l’IA – et non les énormes rendements sur lesquels ils comptent peut-être, compte tenu de leurs énormes dépenses liées à l’IA au cours des deux dernières années.
C’est accablant pour de nombreuses raisons, la principale étant que la chose la plus importante que l’intelligence artificielle est censée faire est de sois intelligent, et vous rend plus intelligent. Être capable d’accéder plus rapidement aux informations peut vous rendre meilleur dans votre travail, mais c’est une question d’efficacité plutôt que de vous permettre de faire quelque chose de nouveau. L’IA générative ne crée pas de nouveaux emplois, elle n’en crée pas de nouveaux façons pour faire votre travail, et cela ne rapporte à personne – et la voie à suivre pour augmenter les revenus n’est pas claire.
Covello termine par une remarque importante et brutale : plus le temps passe sans applications significatives de l’IA, plus « l’histoire de l’IA deviendra » difficile, la rentabilité des entreprises flottant probablement dans cette bulle aussi longtemps qu’il faudra à l’industrie technologique pour atteindre un niveau record. période économique plus difficile.
Il ajoute également sa propre prédiction : « l’enthousiasme des investisseurs pourrait commencer à s’estomper » si « des cas d’utilisation importants ne commencent pas à devenir plus évidents au cours des 12 à 18 prochains mois ».
Je pense qu’il est optimiste.
Même si je ne raconterai pas le reste du rapport, un thème qui revient à plusieurs reprises est l’idée selon laquelle Le réseau électrique américain n’est littéralement pas prêt pour l’IA générative. Dans une interview avec l’ancien vice-président de l’énergie de Microsoft, Brian Janous (page 15), le rapport détaille de nombreux problèmes cauchemardesques que la croissance de l’IA générative cause au réseau électrique, tels que :
- Les hyperscalers comme Microsoft, Amazon et Google ont augmenté leur demande d’énergie de quelques centaines de mégawatts au début des années 2010 à quelques gigawatts d’ici 2030, suffisamment pour alimenter plusieurs villes américaines.
- La centralisation des opérations des centres de données pour plusieurs grandes entreprises technologiques du nord de la Virginie pourrait potentiellement nécessiter un doublement de la capacité du réseau au cours de la prochaine décennie.
- Les services publics n’ont pas connu de période de croissance de la charge – comme dans le cas d’une augmentation significative de la consommation d’électricité – depuis près de 20 ans, ce qui constitue un problème car l’infrastructure électrique est lente à construire et implique des autorisations onéreuses et des mesures bureaucratiques pour s’assurer que cela est fait correctement.
- La capacité totale des projets électriques en attente de connexion au réseau a augmenté de 30 % l’année dernière et les délais d’attente sont de 40 à 70 mois.
- L’expansion du réseau n’est “pas une tâche facile ni rapide”, et Mark Zuckerberg a déclaré que ces contraintes de puissance sont le problème le plus important pour l’IA, ce qui est… en quelque sorte vrai.
Essentiellement, en plus du fait que l’IA générative n’a pas d’applications tueuses, n’augmente pas de manière significative la productivité ou le PIB, ne génère aucun revenu, ne crée pas de nouveaux emplois et ne modifie pas massivement les industries existantes, elle nécessite également que l’Amérique reconstruise totalement son réseau électrique, ce que Janous regrette malheureusement. ajoute que les États-Unis ont en quelque sorte oublié comment procéder.
Peut-être La percée énergétique de Sam Altman pourrait être ces putains de sociétés d’IA sont obligées de payer pour de nouvelles infrastructures électriques.
La raison pour laquelle j’ai si angoisséement démonté ce rapport est que Si Goldman Sachs dit cela, les choses vont très, très mal. Il s’attaque également directement aux tactiques exagérées spécifiques des fanatiques de l’IA – le sentiment que l’IA générative créera de nouveaux emplois (ce n’est pas le cas depuis 18 mois), le sentiment que les coûts vont baisser (ils ne l’ont pas été, et il n’y a pas de nouveaux emplois). Cela ne semble pas être un moyen pour eux d’y parvenir d’une manière qui compte), et qu’il existe une demande incroyable pour ces produits (il n’y en a pas, et il n’y a aucun moyen d’y parvenir).
Même Goldman Sachs, décrivant les avantages de l’IA en termes d’efficacité, a ajouté que même si elle était capable de créer une IA qui mettait à jour les données historiques dans ses modèles d’entreprise plus rapidement que de le faire manuellement, cela coûtait six fois plus cher.
La défense restante est également l’une des plus ennuyeuses : OpenAI a quelque chose que nous ne connaissons pas. Une grande technologie secrète et sexy qui brisera éternellement les os de tous les haineux.
Pourtant, j’ai un contrepoint : non, ce n’est pas le cas.
Sérieusement, Mira Murati, CTO d’OpenAI, a déclaré il y a quelques semaines que les modèles dont elle dispose dans ses laboratoires ne sont pas beaucoup plus avancés que ceux qui sont accessibles au public..
C’est ma réponse à tout cela. Il n’y a pas de tour de magie. Il n’y a aucune chose secrète que Sam Altman va nous révéler dans quelques mois qui me fasse manger du corbeau, ou un outil magique que Microsoft ou Google “sortent et qui font que tout cela en vaut la peine.
Il n’y en a pas. Je vous dis que non.
IA générative, comme je l’ai dit en mars, atteint son apogée, si ce n’est pas déjà fait. Il ne peut pas faire grand-chose de plus que ce qu’il fait actuellement, si ce n’est d’en faire plus plus rapidement grâce à de nouveaux intrants. Cela ne devient pas beaucoup plus efficace. David Cahn, le hype-man de Sequoia, a joyeusement mentionné dans un blog récent que le B100 de Nvidia “avoir des performances 2,5 fois supérieures pour seulement 25 % plus coût“, ce qui ne veut rien dire, parce que l’IA générative ne va pas gagner en sensibilité, en intelligence et en conscience parce qu’elle est capable de fonctionner plus rapidement.
L’IA générative ne deviendra pas l’AGI, ni le type d’intelligence artificielle que vous avez vu dans la science-fiction. Les assistants ultra-intelligents comme Jarvis d’Iron Man nécessiteraient une forme de conscience qu’aucune technologie ne possède actuellement – ou ne pourra jamais – avoir, à savoir la capacité à la fois de traiter et de comprendre les informations. parfaitement et fais décisions basées sur l’expérience, qui, si je n’ai pas été assez clair, sont toutes des choses entièrement distinctes.
IA générative au mieux traite les informations lorsqu’il s’entraîne sur des données, mais à aucun moment il « n’apprend » ou « ne comprend », car tout ce qu’il fait est basé sur l’ingestion de données d’entraînement et le développement de réponses basées sur un sens mathématique ou une probabilité plutôt que sur une appréciation ou une compréhension de l’information. matériau lui-même. Les LLM sont des technologies totalement différentes de celle de « l’intelligence artificielle » dans le sens où la bulle de l’IA est un battage médiatique, et il est honteux que l’industrie de l’IA ait accaparé autant d’argent et d’attention avec un mensonge aussi flagrant et offensant.
Le marché du travail ne va pas changer grâce à l’IA générative, parce que l’IA générative ne peut pas réellement faire beaucoup de tâches, et elle est médiocre dans le peu de choses qu’elle est capable de faire. Bien qu’il s’agisse d’un outil d’efficacité utile, cette efficacité repose sur une technologie extrêmement coûteuse, et je pense qu’à un moment donné, les sociétés d’IA comme Anthropic et OpenAI devront augmenter leurs prix – ou commencer à s’effondrer sous le poids d’une technologie qui n’a aucun chemin vers la rentabilité.
S’il existait un moyen secret de résoudre tout cela, Microsoft, Meta, Google ou Amazon ne le feraient-ils pas… dont le PDG d’AWS a comparé le battage médiatique de l’IA générative à la bulle Dotcom en février — en avez-vous profité ? Et pourquoi ai-je entendu dire qu’OpenAI essaie déjà de lever un autre tour de table de plusieurs milliards de dollars ? après avoir levé un montant indéterminé pour une valorisation de 80 milliards de dollars en février? Son chiffre d’affaires annualisé n’est-il pas de 3,4 milliards de dollars? Pourquoi a-t-il besoin de plus d’argent ?
Je vais vous donner une hypothèse éclairée : parce que tout ce qu’ils – et d’autres colporteurs d’IA générative – ont aujourd’hui n’est évidemment pas l’avenir. L’IA générative n’est pas l’avenir, mais une régurgitation du passé, un moyen utile, mais pas révolutionnaire, de générer rapidement de « nouvelles » données à partir d’anciennes qui coûtent beaucoup trop cher pour rendre le calculer et énergie les exigences en valent la peine. Google a augmenté ses émissions de 48 % au cours des cinq dernières années à la poursuite d’une technologie qui a fait son moteur de recherche encore pire qu’il ne l’est déjà, avec peu de choses à montrer.
Il est vraiment remarquable de voir combien de personnes ont été séduites par cette escroquerie remarquable — cette manipulation sans scrupules des marchés financiers, des médias et des médias. des cadres sans cervelle déconnectés de la production – tout cela grâce à une industrie technologique qui s’est déconnectée de la création de technologies utiles.
On m’a demandé à plusieurs reprises ce qui, selon moi, ferait éclater cette bulle, et je maintiens qu’une partie de l’effondrement sera due à la dissidence des investisseurs, punissant l’un des principaux fournisseurs (Microsoft ou Google, très probablement) pour un investissement massif dans un secteur. qui génère peu de revenus réels. Cependant, je pense que l’effondrement sera une succession de mauvais événements… comme Figma suspendant sa nouvelle fonctionnalité d’IA après avoir immédiatement plagié l’application météo d’Apple, probablement à cause des données de formation qui l’incluaient – couronné par une grande entreprise, comme une grande société d’IA comme la société de chatbot Character.ai (qui a levé 150 millions de dollars de financement, et The Information prétend qu’il pourrait vendre à l’une des grandes entreprises technologiques) s’effondrant sous le poids d’un modèle économique non durable fondé sur une technologie non rentable.
C’est peut-être Cognition AI, la société qui a levé 175 millions de dollars pour une valorisation de 2 milliards de dollars en avril pour faire un “ingénieur logiciel IA” qui était si bon qu’il a dû simuler une démo en complétant un projet de développement logiciel sur Upwork.
Fondamentalement, il y aura un moment qui effrayera une société de capital-risque qui poussera l’une de ses startups à vendre, ou l’effondrement soudain, inattendu mais très évident d’un acteur majeur. Pour OpenAI et Anthropic, il n’y a vraiment pas de voie vers la rentabilité – une seule qui implique de dépenser des milliards de dollars supplémentaires dans l’espoir de découvrir quelque chose. rien cela pourrait être véritablement innovant ou révélateur de l’avenir, plutôt que de nouvelles itérations d’IA générative, qui, au mieux, constituent une nouvelle façon extrêmement coûteuse de traiter les données.
Je ne vois aucune situation dans laquelle OpenAI et Anthropic continuent d’itérer à perpétuité sur de grands modèles de langage, comme à un moment donné Microsoft, Amazone et Google décident (ou sont obligés de décider) que le bien-être du cloud computing n’est pas un modèle économique. Sans une avancée réelle et tangible – qui les obligerait à quitter complètement le monde des LLM, à mon avis – il est difficile de savoir comment les entreprises d’IA générative peuvent survivre.
L’IA générative est verrouillée la course de la Reine Rouge, brûlant de l’argent pour gagner de l’argent dans le but de prouver qu’ils gagneront un jour plus d’argent, même s’il n’y a pas de chemin clair pour y parvenir.
Je me sens un peu fou à chaque fois que j’écris un de ces morceaux, parce que c’est manifestement ridicule. L’IA générative n’est pas rentable, non durable et fondamentalement limitée dans ce qu’elle peut faire du fait qu’elle génère une réponse de manière probabiliste. Cela fait dix-huit mois que cette bulle a gonflé, et depuis lors, très peu de choses se sont réellement produites. impliquant la technologie faisant de nouvelles choses, juste une exploration itérative des limites très claires de ce qu’un modèle d’IA qui génère des réponses peut produire, la réponse étant « quelque chose qui est, parfois, plutôt bon ».
C’est évident. C’est bien documenté. L’IA générative coûte beaucoup trop cher, ne devient pas moins chère, consomme trop d’énergie et n’en fait pas assez pour justifier son existence. Il n’y a pas d’applications tueuses, ni d’applications tueuses à l’horizon. Et il n’y a pas de réponses.
Je ne sais pas pourquoi davantage de gens ne le disent pas aussi fort qu’ils le peuvent. Je comprends que les grandes technologies ont désespérément besoin que ce soit le prochain marché en hypercroissance, car ils n’en ont pas d’autres, mais la poursuite de ce gâchis quasi utile en matière d’efficacité du cloud, provoquant une catastrophe environnementale, enverra une onde de choc à travers l’industrie.
Tout cela est un gaspillage honteux.