Alors que les IA du style ChatGPT semblent bien parties pour être mises à toutes les sauces en 2023, la question du prix de cette nouveauté se pose. Microsoft et Google ont prévu d'intégrer rapidement des modèles similaires dans leurs moteurs de recherche, utilisés par des milliers de personnes quotidiennement. Or, chaque requête envoyée à une de ses IA coûte beaucoup plus cher qu'une simple recherche dans Bing ou Google.
Les IA nécessitent en effet beaucoup de puissance sous le capot étant donné que la machine doit générer une réponse, là où un moteur plus classique va plus simplement aller chercher les résultats correspondants dans l'énorme liste de sites indexés. La mise sur pied des modèles est également très gourmande : l'entraînement de ChatGPT aurait demandé environ 10 000 cartes graphiques NVIDIA. C'est une aubaine pour le fabricant, son CEO ayant déclaré que l'utilisation de ses puces pour alimenter des services d'IA (comme les chatbots) avait « explosé au cours des 60 derniers jours ».
L'essor des IA pourrait créer une nouvelle pénurie de GPU
Le président du conseil d'administration d'Alphabet John Hennessy a expliqué à Reuters qu'un échange avec une IA coûterait probablement 10 fois plus cher qu'une recherche standard par mot clé. On estime que si Google devait recourir à des GPU pour répondre aux requêtes via l'IA, il faudrait un peu plus de 4 000 000 cartes graphiques A100, qui se négocient aux alentours de 20 000 € pièce. SemiAnalysis considère que l'ajout d'une IA de type ChatGPT à Google pourrait coûter 3 milliards de dollars à Alphabet. De son côté, le cabinet Morgan Stanley estime que Google verrait ses coûts augmenter de 6 milliards de dollars d'ici 2024 si seulement la moitié des recherches utilisateurs passent par Bard (avec des réponses de 50 mots). Ces frais se justifient par le besoin de puces, mais aussi d'électricité.
Pour répondre à cette problématique, Google envisage le déploiement de plus petits modèles d'IA dédiés à des tâches plus simples : c'est une version plus économe qui alimentera son chatbot Bard. Le président du conseil d'administration d'Alphabet a expliqué que les dépenses associées à la façon dont un bot génère des réponses étaient amenées à diminuer avec le temps, affirmant que c'était un problème « de quelques années dans le pire des cas ». Plusieurs astuces pourraient être employées pour limiter les coûts, comme la mise en cache de requêtes mêlées à l'utilisation du moteur de recherche pour les demandes les plus simples.
Plusieurs solutions sont à l'étude pour réduire les coûts. La directrice financière de Microsoft a déclaré que l'augmentation du nombre d'utilisateurs et des recettes publicitaires l'emportait pour le moment sur les dépenses liées au déploiement du nouveau Bing. Actuellement, Microsoft se contente de remonter ses réclames standards via le bot, mais envisage de mettre en place d'autres techniques sur le long terme. Il n’est pas difficile d’imaginer de nombreuses voies de monétisations plus précises.
Des pubs pour des hôtels pourraient par exemple apparaître en tapant la requête « quels sont les meilleurs hôtels de Mexico ? », a expliqué un cadre du groupe. L'entreprise a également fait grimper le prix de l'API de Bing, avec des tarifs étant parfois multipliés par 10. Cette interface peut être utilisée par certains services tiers pour extraire des données de Bing Search. La firme de Redmond justifie cette décision en expliquant que ce « nouveau modèle de tarification reflète plus fidèlement les investissements technologiques que Bing continue de faire pour améliorer la recherche ».