Récemment, je suis amené à réfléchir aux limites fondamentales de l'IA. Comme le protagoniste du film « Memento », il se pourrait que les modèles de langage actuels soient aussi victimes d'une forme d'amnésie antérograde.



Si les paramètres restent fixes, le modèle ne peut pas vraiment apprendre de nouvelles expériences. Il essaie de compenser avec l'historique de chat ou un système de recherche, mais en fin de compte, il ne fait que s'appuyer sur une mémoire externe. Il ne peut pas internaliser ces connaissances.

Selon l'analyse de a16z, l'apprentissage dans le contexte (ICL) n'est qu'une recherche, pas un véritable apprentissage. En raison de l'absence de compression, il ne peut pas faire face à des découvertes créatives ou à des scénarios antagonistes. Par exemple, pour des problèmes nécessitant une approche totalement nouvelle, comme la preuve du dernier théorème de Fermat, un LLM ne peut que combiner des connaissances existantes.

Les chercheurs proposent trois voies pour résoudre ce problème. La première est le renforcement des couches de contexte, comme dans les systèmes multi-agents. La deuxième est la modularité, avec des modules de connaissance intégrables dans l'architecture existante, tels que les adaptateurs ou les caches KV compressés. La troisième est la mise à jour des poids, permettant un apprentissage approfondi au niveau des paramètres via l'entraînement en test ou l'apprentissage par méta-apprentissage.

Cependant, la mise à jour des poids pose de nombreux défis. Oubli catastrophique, découplage temporel, dégradation de l'alignement de sécurité. La mise à jour des modèles après déploiement n'est pas seulement une question technique, mais aussi liée à la vérifiabilité, à la confidentialité et à d'autres enjeux.

Les systèmes futurs seront probablement hiérarchiques. L'ICL assurera une adaptation rapide, la modularité permettra une spécialisation, et la mise à jour des poids favorisera une internalisation profonde. Pour dépasser l'amnésie antérograde, il ne suffit pas d'étendre un simple fichier ou une armoire à fichiers ; il faut une compression, une abstraction, et un véritable mécanisme d'apprentissage.

Ce domaine voit l'entrée de nombreuses startups, expérimentant dans les couches de gestion du contexte, de conception modulaire et d'optimisation des paramètres. Aucun leader clair ne s'est encore dégagé, mais d'importants changements semblent imminents dans les années à venir.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler