Pourquoi miser sur Google dans la course à l'IA générative
Je ne veux pas que ce post soit interprété comme un publi-reportage en faveur de Google, mais juste une analyse à froid de ce que je constate autour de moi et sur les projets de nos clients chez Coddity. Celle-ci évoluera forcément en fonction de l’avancement et la maturité d’OpenAI ou Mistral (et leur API 🇫🇷).
[DISCLAIMER1] Je sors Meta et Mistral de l’équation, mon propos portant sur l’utilisation de LLM par API.
Pourquoi Google ?
La raison principale est que mener un projet de GenAI à l’échelle d’une entreprise, c’est mener AVANT-TOUT un projet informatique, où l’on va avoir besoin d’appeler un service disponible et stable.
Google Cloud est le seul parmi les GAFAM à proposer à la fois :
Une infrastructure qui tient la route
Je ne compte plus le nombre d’erreurs 50x renvoyées par les API d’OpenAI sur un de nos projets en production, pourtant sans grosse charge. Chez Google, aucun logs d’erreurs remontés sur le projet d’un client, pourtant soumis à une grosse charge. Le tout avec un LLM en région europe-west9.
Je n’ai pas fait de tests sur GPT sur Azure, mais je considère OpenAI et Microsoft (jusqu’à nouvel ordre) comme 2 sociétés distinctes, rappelez-vous le drama de novembre.
Des LLMs propriétaires performants
Si rien n’égale GPT-4 (*), les modèles Google n’ont pas à rougir surtout depuis la sortie de la suite Gemini. L’expérience me montre que nous avons besoin de la puissance d’un GPT-4 finalement dans un nombre assez limité de cas d’usage, et là, les modèles de Google sont bons.
D’ailleurs, le fait que Gemini soit disponible en version “nano” en dit assez long sur la projection des usages qu’en fait Google. Cherry on the cake, si vous avez un usage précis, le finetuning d’un modèle se fait très facilement, déployable en région Europe.
D’ailleurs, je m’étonne que peu de monde n’ait relevé que GCP proposait le premier des LLMs déployés en zone europe.
Des produits stables et pensés “production”
Si le rythme des sorties est moins soutenu que celles d’OpenAI, j’y vois une volonté de soigner ce qui est livré. Je n’ai pas encore constaté de bugs qui sont identifiés par toute la communauté et non traités pendant des mois à part un “ok. vu” comme chez OpenAI.
Un point qui devrait plaire : vous pouvez régler le niveau de “sécurité” de ce que le modèle va accepter et générer. Si Mistral propose un switch équivalent, Google a intégré plusieurs types et niveaux de contrôle. De quoi faire plaisir à tout un département juridique.
[DISCLAIMER2] Je réaffirme mon soutien à l’open-source des modèles génératifs, que nous utilisons le plus possible chez Coddity. Ceux-ci sont selon moi (et beaucoup d’autres) la clef de la sécurité liée à l’IA, un accélérateur d’innovation et (last but not the least) le véritable contre pouvoir à une volonté de régulation excessive de la part de nos politiques.
(*) Je n’ai pas encore testé Gemini Ultra !