banner

Nouvelles

May 30, 2023

Le PDG d'OpenAI, Sam Altman, parle de la pénurie de puces et de l'avenir de ChatGPT

Les pénuries de puces informatiques spécialisées nécessaires pour exécuter son logiciel d'intelligence artificielle freinent les activités d'OpenAI, et la société n'a pas l'intention de lancer un produit destiné aux consommateurs au-delà de ChatGPT. Ce ne sont que deux des révélations Le cofondateur et PDG d'OpenAI, Sam Altman, aurait parlé à un groupe de développeurs de logiciels et de PDG de startups lors d'une réunion privée à Londres il y a deux semaines, selon un article de blog rédigé par l'un des participants. Le compte rendu de la réunion à huis clos, à laquelle auraient assisté une vingtaine de personnes, a ensuite été retiré à la demande d'OpenAI, selon une note annexée à la page où il apparaissait initialement,mais cela n'a pas empêché la communauté de l'IA de se pencher sur les commentaires (présumés) influents du PDG.

Un site d'archivage Internet avait déjà enregistré une copie de l'article de blog original, et il a depuis circulé sur les réseaux sociaux et plusieurs forums de discussion orientés codeur. Altman a déclaré que l'incapacité d'OpenAI à accéder à suffisamment d'unités de traitement graphique (GPU), les puces informatiques spécialisées utilisées pour exécuter les applications d'IA, retarde les plans à court terme d'OpenAI et cause des problèmes aux développeurs utilisant les services d'OpenAI, selon le billet de blog rédigé par Raza Habib, un expert en intelligence artificielle qui est également cofondateur et PDG de Humanloop. La startup londonienne de Habib a été la première à proposer des méthodes pour rendre plus efficace la formation de grands modèles de langage, tels que ceux qui sous-tendent le ChatGPT d'OpenAI. sous-tendent ses logiciels, tels que ChatGPT, et ont ralenti le déploiement prévu par l'entreprise de fonctionnalités et de services supplémentaires. Cela a également rendu les services existants d'OpenAI plus lents et moins fiables, selon le billet de blog, un fait qui frustre les clients et les rend réticents à créer des applications d'entreprise au-dessus de la technologie d'OpenAI. La crise de l'approvisionnement en puces a mis en péril l'avantage d'OpenAI dans le boom de l'IA générative, car Google - ainsi que des rivaux moins connus - a été en mesure de déployer des services concurrents, et les concurrents open source ont pris une plus grande place.

Altman a exposé plusieurs choses qu'OpenAI ne peut tout simplement pas encore faire car il lui manque le matériel (c'est-à-dire les puces). Il s'agit notamment de fournir une "fenêtre contextuelle" plus longue à la plupart des clients de ses grands modèles de langage GPT, a écrit Habib dans son article de blog. La fenêtre contextuelle détermine la quantité de données pouvant être utilisées dans une seule invite introduite dans le modèle et la durée de la réponse du modèle. La plupart des utilisateurs de GPT-4 ont une fenêtre de contexte longue de 8 000 jetons (un jeton est un segment de données sur lequel le modèle d'IA sous-jacent fait une prédiction, ce qui équivaut à environ un mot et demi d'anglais). OpenAI a annoncé une fenêtre de 32 000 jetons pour certains utilisateurs du modèle en mars, mais peu d'utilisateurs ont eu accès à cette fonctionnalité, un fait qu'Altman a imputé au manque de GPU, a écrit Habib.

La majorité des applications d'IA dans le monde sont entraînées et exécutées sur des GPU, une sorte de puce informatique conçue pour traiter les données à l'aide d'un traitement parallèle à grande vitesse. La plupart de ces puces sont fabriquées par une seule entreprise, Nvidia, et peuvent coûter des milliers à des centaines de milliers de dollars. Les observateurs du marché savent déjà que l'action de Nvidia a grimpé en flèche en raison de son association avec le boom de l'IA générative, et sa valorisation boursière a récemment franchi le seuil de 1 000 milliards de dollars.

Le cofondateur et PDG d'OpenAI aurait également assuré aux développeurs qu'OpenAI n'envisageait pas de lancer des produits destinés aux consommateurs au-delà de ChatGPT, selon le message de Habib. Habib avait déclaré que de nombreux développeurs présents à la réunion avaient dit à Altman qu'ils craignaient d'utiliser les modèles d'IA d'OpenAI pour s'appuyer sur eux-mêmes si OpenAI pouvait plus tard déployer des produits concurrents. Altman aurait déclaré que ChatGPT serait son seul produit destiné aux consommateurs et que sa vision de son avenir était celle d'un "assistant super intelligent pour le travail", mais que de nombreux cas spécifiques à l'industrie impliquant les grands modèles de langage GPT sous-jacents OpenAI "ne toucheraient pas. "

Altman aurait également déclaré que les commentaires qu'il avait eus il y a un mois sur la fin de "l'ère des modèles géants" avaient été mal interprétés. Le chef d'OpenAI a déclaré aux développeurs qu'il voulait seulement dire que compte tenu de la taille actuelle de GPT-4, le grand modèle de langage le plus puissant d'OpenAI, il ne serait pas possible de continuer à faire évoluer les systèmes d'IA de manière exponentielle. Il a déclaré à la réunion de Londres qu'OpenAI continuerait à créer des modèles plus grands, mais qu'ils ne seraient que deux ou trois fois plus gros que GPT-4, et non des millions de fois plus gros.

Lors de la conversation avec les développeurs, Altman aurait également présenté la feuille de route à court terme d'OpenAI. En 2023, Altman a déclaré que les objectifs d'OpenAI étaient de rendre GPT-4 plus rapide et moins cher, de fournir une "fenêtre contextuelle" plus longue pour permettre aux gens d'alimenter les modèles GPT d'OpenAI avec plus de données et de recevoir des sorties plus longues, de déployer un moyen plus simple d'affiner GPT- 4 pour des cas d'utilisation client spécifiques, et permettent également à ChatGPT et à ses grands modèles de langage sous-jacents de conserver une mémoire des dialogues passés, de sorte que l'on n'aurait pas à répéter la même séquence d'invites chaque fois qu'une personne voulait reprendre une conversation où elle interrompu ou répété une certaine interaction avec le modèle, a déclaré le blog de Habib.

L'année prochaine, Altman aurait déclaré que la priorité serait de déployer la capacité du GPT-4 à recevoir des images en tant qu'entrées et sorties, une fonctionnalité que la société a démontrée lors du lancement du modèle en mars, mais qui n'a pas encore été mise à la disposition de la plupart des clients.

En ce qui concerne la réglementation, Altman a déclaré aux développeurs qu'il ne pensait pas que les modèles existants posaient un risque démesuré et que "ce serait une grave erreur de les réglementer ou de les interdire", a écrit Habib. Altman a réitéré sa position publique selon laquelle OpenAI croyait en l'importance des logiciels d'IA open source et a confirmé un rapport de la publication technologique The Information selon lequel OpenAI envisage d'ouvrir l'un de ses modèles. Selon le blog, Altman a déclaré que la société pourrait ouvrir son modèle GPT-3 et ne l'avait pas encore fait parce qu'Altman "était sceptique quant au nombre d'individus et d'entreprises qui auraient la capacité d'héberger et de servir" de grands modèles linguistiques.

Altman aurait déclaré lors de la réunion à huis clos que la société essayait toujours de comprendre comment les clients de ChatGPT Plus voulaient utiliser les plugins qui permettent au grand modèle de langage d'utiliser d'autres logiciels. Habib a déclaré dans le blog que cela signifiait probablement que les plugins n'étaient pas encore adaptés au marché des produits et ne seraient pas déployés de sitôt auprès des entreprises clientes via l'API d'OpenAI.

Ni Habib ni OpenAI n'ont immédiatement répondu aux demandes de commentaires de Fortune.

Le billet de blog d'Habib a inspiré des discussions animées sur les réseaux sociaux et les forums de développeurs. Beaucoup ont déclaré que les commentaires d'Altman montraient à quel point le manque de GPU était un problème pour réaliser le potentiel commercial des grands modèles de langage. D'autres ont déclaré que cela montrait à quel point de nombreuses innovations émanant de la communauté de l'IA open source - qui a développé des moyens innovants pour atteindre des performances similaires à certains des plus grands modèles d'IA propriétaires en utilisant beaucoup moins de puissance de calcul et beaucoup moins de données - sont pour le l'avenir de la technologie.

Meredith Whittaker, présidente de la Signal Foundation et critique de premier plan de Big Tech, interrogée en marge d'une conférence à Berlin, a déclaré que le billet de blog montrait l'emprise que les plus grandes entreprises technologiques du monde détiennent sur les fondements des logiciels d'IA d'aujourd'hui parce que seulement ces entreprises peuvent se permettre les ressources informatiques et les données nécessaires pour former les plus grands modèles d'IA. "Ce que vous voyez, c'est que la principale contrainte, même avec l'accès à l'infrastructure de Microsoft, ce sont les GPU", a-t-elle déclaré, faisant référence au partenariat étroit d'OpenAI avec Microsoft, qui a investi 13 milliards de dollars dans la startup d'IA de San Francisco à ce jour. "Vous avez besoin d'une infrastructure incroyablement coûteuse pour pouvoir faire cela." Elle a déclaré que les gens ne devraient pas confondre le fait qu'une communauté d'IA open source existe "avec un paysage réellement démocratique et compétitif".

Le journaliste de fortune David Meyer à Berlin a contribué au reportage de cette histoire.

.
PARTAGER