Closed amait41 closed 1 month ago
Merci @amait41 pour ton retour, je regarde ça.
Can you provide the thread json that is causing this issue? You can find it in the network tab of the chrome dev tool. Look for a graphql query named threadDetail. That would be helpful to reproduce.
Thanks for your help, here is the file : graphql_query.txt Let me know if I didn't provide the correct file :)
This is great, thank you!
After inspecting the thread, we can see that there is a circular dependency between step c693d870-5cdc-4bfc-b14a-2766b5c8a7a8
of type retrieval
and step d09ce25c-7e52-580f-8820-a9a97e2cb17c
of type run
.
This should never happen. Is this happening using only the llama index instrumentation?
In the next release of the platform the UI will gracefully handle this edge case but we need to also find the root cause.
In the next release of the platform the UI will gracefully handle this edge case but we need to also find the root cause.
I managed to reproduce circular dependencies when with a call to engine.query()
when two calls to literalai_client.instrument_llamaindex()
were made prior. Enforced single single instrumentation in this PR.
@amait41 Nous venons de sortir:
0.0.625
de la SDK Python: nous avons mis à jour la documentation de l'instrumentation de LlamaIndex afin d'expliciter les Thread/Run/Generation auxquels on peut s'attendre sur Literal AIv0.0.625-beta
de notre plateforme, qui résout les problèmes d'affichage de Thread
quand les Step
associés ont des dépendances circulairesPour ce dernier point, l'erreur venait d'une double instrumentation de LlamaIndex, chose qui est désormais infaisable avec la dernière version de la SDK.
Bonjour,
Je rencontre quelques difficultés avec l'instrumentation LlamaIndex.
On observe que l'instrumentation fonctionne avec des query engines mais pas avec certains autres appels. Exemple : agent.chat, lm.predict_and_call, etc.
De plus, certains threads produisent des erreurs.
Avec un message suivant dans la console : console _error.txt
Environnement python=3.12 literalai==0.0.622 llama-index==0.11.10
Voici un exemple de code dont je souhaite logger les steps :
Bien cordialement, Adrien