Les LLM et l'IA générative occupent une place importante dans les pratiques MLOps
MaisonMaison > Blog > Les LLM et l'IA générative occupent une place importante dans les pratiques MLOps

Les LLM et l'IA générative occupent une place importante dans les pratiques MLOps

Sep 23, 2023

Articles / Analyse

Les besoins uniques en matière de développement de l'intelligence artificielle (IA) ont donné naissance à des pratiques MLOps adaptées à la création et au déploiement de modèles d'apprentissage automatique. Toujours en évolution, ces pratiques pourraient connaître un nouveau bouleversement, à mesure que l'IA générative et les grands modèles linguistiques (LLM) alimentent de nouvelles applications.

Lorsque des percées antérieures ont eu lieu dans les modèles d’apprentissage automatique (ML), l’actualité se limitait à de petites communautés de spécialistes de l’IA. La base de données de reconnaissance d'objets Image Net en 2012 et l'architecture neuronale Transformer décrite en 2017 par Google ont été des ondulations mineures dans la conscience technologique.

Ce n’est pas le cas avec ChatGPT. Il a fait sensation dans le monde entier lorsqu’il a été ajouté à Bing et au navigateur Edge. Les dirigeants de la suite C ont dû en tenir compte, car l'IA générative, les LLM et les modèles de fondation semblaient indiquer des innovations significatives. L'IA générative laisse présager de nouvelles formes d'interaction avec les chatbots, de synthèse et de génération de contenu, de génération de code logiciel et bien plus encore.

Le cabinet de conseil Deloitte affirme que l’IA générative crée une vague de perturbations. Pas moins de 55 % des personnes interrogées dans le cadre d’une enquête Deloitte/Forbes menée en 2023 auprès de 143 PDG évaluent ou expérimentent l’IA générative.

Parallèlement, 79 % des personnes interrogées estiment que l’IA générative augmentera l’efficacité, et 52 % des personnes interrogées pensent qu’elle augmentera les opportunités de croissance. Deloitte a déclaré que 37 % des personnes interrogées mettent déjà en œuvre l'IA générative dans une certaine mesure.

La ruée vers les LLM et le besoin d'outils de développement ML de premier ordre ont accéléré les acquisitions dans le domaine ML Ops. Certains téléspectateurs commencent également à distinguer « l’espace LLM Ops ».

Beaucoup voient ces types d’achats comme un jeu d’acquisition de talents, soulignant les problèmes de compétences qui assombrissent les perspectives de l’IA générative.

Les équipes travaillent désormais à apprivoiser la nouvelle technologie, à la fois en mode formation et en mode inférence. Les LLM au cœur des innovations de l'IA générative nécessitent des architectures matérielles et logicielles à grande échelle prenant en charge l'informatique distribuée. Les ressources de mémoire et de calcul doivent être optimisées pour réduire la latence dans l'interaction homme-machine. Tout cela se traduit rapidement par des coûts qui bloquent certains projets prometteurs.

De plus, les LLM se nourrissent de données de formation prodigieuses, qui doivent être organisées et gouvernées. La sortie LLM peut être instable ; Parfois, les développeurs s'appuient sur une ingénierie itérative des invites, interrogeant le modèle à plusieurs reprises, puis réfléchissant à la nature aléatoire des réponses au fur et à mesure qu'elles arrivent. Pourtant, les développeurs et fournisseurs indépendants de toutes tailles voient des moyens de résoudre les problèmes.

"Les grands modèles de langage sont étonnants en matière de raisonnement général, mais ils sont extrêmement fragiles", a déclaré Shreya Rajpal, qui a pris la parole lors du récent Databricks Data and AI Summit 2023. "Il est difficile d'obtenir des résultats corrects à partir de grands modèles de langage."

"Lorsque vous l'étendez, il n'y a aucune garantie qu'il fonctionnera comme prévu", a-t-elle déclaré aux participants au Data and AI Summit.

Rajpal est un ancien ingénieur senior Apple ML et aujourd'hui fondateur de la start-up Guardrails AI, qui crée des logiciels pour mieux garantir la qualité des sorties LLM.

Comme les LLM sont appliqués à des utilisations en entreprise, où l'exactitude est essentielle, il existe un besoin urgent de valider les entrées, selon Rajpal. La validation tourne autour des structures et des types de langage, vérifie les grossièretés ou la longueur des réponses, et bien plus encore. Chez Guardrails AI, Rajpal développe des outils de vérification dans le but de mieux garantir la qualité des résultats du LLM.

La technologie des conteneurs continue de stimuler le développement automatisé du ML. Ils favorisent une collaboration vitale entre les data scientists et les opérations. Les défis uniques des LLM nécessiteront une gestion améliorée des conteneurs, selon Josh Poduska, responsable des données sur le terrain chez Domino Data Lab, qui a perfectionné ses compétences en analyse pour divers clients Fortune 100 depuis sa création en 2013.

« Aujourd’hui, la science des données repose en grande partie sur les conteneurs. Au niveau de l’entreprise, ils jouent un rôle important dans la construction des bases d’une plateforme de science des données. Les LLM nécessitent une version de conteneur différente de celle de l'apprentissage automatique traditionnel, ce qui impose de nouvelles exigences aux cadres de gestion de conteneurs qui prennent en charge une meilleure collaboration, pour une meilleure reproductibilité », a-t-il indiqué.