
Gestion de long contexte et usage de LLMs: reality check et exemple de mitigation
Tokens et ordres de grandeur La plupart des meilleurs LLMs, à l’exception notable de Gemini 1.5 et de ses incroyables 2 millions de tokens de contexte, plafonnent à 128K tokens