Le succès fulgurant de ChatGPT fait décidément beaucoup de remous chez Google. Non content d'avoir poussé le géant du web à précipiter le lancement de Bard, le duo OpenAI-Microsoft a remis en cause une de ses pratiques ancrées depuis longtemps. D'après le Washington Post, Google restreint désormais la publication d'articles scientifiques par ses chercheurs en intelligence artificielle.
Cette nouvelle politique a été annoncée en février par Jeff Dean, le responsable scientifique qui est sous la direction directe de Sundar Pichai depuis la réorganisation des équipes dédiées à l'IA au printemps. Les chercheurs doivent maintenant obtenir le feu vert de leurs supérieurs avant de pouvoir partager leurs travaux avec la communauté scientifique. Pourquoi le groupe impose-t-il cette contrainte ? Pour éviter qu'un concurrent ne tire avantage d'une de ses trouvailles avant lui.
ChatGPT n'aurait en effet jamais pu voir le jour si des chercheurs de Google n'avait pas mis au point et présentés publiquement en 2017 le Transformer, une toute nouvelle façon d'agréger le sens des mots qui sert maintenant d'architecture à tous les grands modèles de langage. Sur la défensive, la multinationale veut désormais que les découvertes de ses chercheurs lui profitent en premier en étant intégrées au sein de ses produits avant qu'elles ne soient révélées dans des publications ouvertes.
Retour sur OpenAI, le créateur de ChatGPT qui mène intelligemment sa barque
« En temps de paix, il est logique de dépenser X dollars pour faire grossir le gâteau dans son ensemble, tant que votre part augmente plus que votre investissement. En temps de guerre, il faut également surveiller la croissance de la part de vos concurrents », expose sur son blog Brian Kihoon Lee, un chercheur de Google Brain qui a perdu son emploi avec la vague de licenciement du début d'année. Or, en ce moment, OpenAI et Microsoft sont en train de manger tout le gâteau. Toujours d'après le Washington Post, des chercheurs de Google en désaccord avec cette nouvelle politique de publication ont pris leurs cliques et leurs claques.
Le groupe de Mountain View n'est pas le seul à verrouiller ses recherches pour empêcher ses rivaux d'en profiter. Après s'être présenté comme le chantre de l'ouverture, OpenAI a opéré un virage à 180° en voyant le potentiel commercial de sa technologie GPT. « Nous avions tort [de vouloir tout mettre en accès libre] », a carrément déclaré Ilya Sutskever, le responsable scientifique d'OpenAI, en mars. De fait, la start-up qui fait trembler Google garde le mystère sur certains pans de ses modèles de langage stratégiques. Elle présente cela comme un moyen de garder le contrôle sur une IA très sophistiquée, mais c'est surtout bien pratique pour ne pas se faire doubler et rentabiliser au plus vite ses inventions.
Ces cloisonnements des recherches scientifiques contrastent avec les promesses de collaboration faites par les uns et les autres pour guider l'intelligence artificielle dans le droit chemin. Engagés dans une course effrénée, Google, Microsoft et OpenAI semblent plus avoir en ligne de mire leurs intérêts respectifs que le bien commun. Du côté d'Apple, il n'y a pas l'air d'y avoir de changement pour le moment dans le partage des travaux scientifiques, les publications continuent sur son site dédié.
Malgré ce repli sur soi d'acteurs déterminants, les recherches à ciel ouvert sur les intelligences artificielles génératives se poursuivent, notamment grâce à la fuite du modèle LLaMA de Meta et à l'implication de compétiteurs plus ouverts comme Stability.ai ou Hugging Face. Au moins un chercheur de Google craint d'ailleurs que la communauté open source fasse mieux que les entreprises ayant choisi la voie de technologies propriétaires.
LLaMA, Vicuna, Alpaca : comment faire tourner un modèle de langage sur son Mac ?