tjarkvandemerwe / tidyprompt

Create LLM prompting pipelines
https://tjarkvandemerwe.github.io/tidyprompt/
Other
7 stars 1 forks source link

send_prompt: add output besides the response, e.g., full chat history #21

Closed tjarkvandemerwe closed 3 weeks ago

tjarkvandemerwe commented 1 month ago

prompt_response object: response log, df met user, response tijden

lukakoning commented 4 weeks ago

Met 980ed6b en 4104c61 nu gedaan.

Ik heb nu 2 modes ingebouwd, één is enkel response en één is list met details. De tests e..d. werken nu nog op enkel response. Volgens mij is je de base pipe gebruikt is iets als: prompt |> send_prompt(...) |> .$response |> ... ook niet mogelijk; met '%>%' kan dat wel (dus voor de base pipe is de 'only_response' mode dan nuttig als je door wil pipen met de uitkomst).

Eventuele todo is nog om response-parameters van de specifieke LLM provider ook nog door te sluisen (kan info bevatten over hoeveel tokens gebruikt bijvoorbeeld).

tjarkvandemerwe commented 3 weeks ago

conclusie: character alleen response object is default toggle voor uitgebreide object. eventueel helper get_result_from_reply() zodat je uit de uitgebreide response het in een pipeline eruit kan halen.

lukakoning commented 3 weeks ago

Ik heb nu met 33a6c952448f15896eb8d830d4e1f8f2a737bf85 het zo gemaakt dat de volledige http responses van providers ook kunnen worden meegegeven

lukakoning commented 3 weeks ago

Met 1dec90c wordt ook nog clean chat history meegegeven

lukakoning commented 3 weeks ago

Met 5134c3f597508d9013c5d343e791f10a5268e39b is ook de functie toegevoegd voor het extracten van een specifiek element uit de full response. Dan is deze voltooid denk ik!