IntelligenzaArtificiale / Free-Auto-GPT

Free Auto GPT with NO paids API is a repository that offers a simple version of Auto GPT, an autonomous AI agent capable of performing tasks independently. Unlike other versions, our implementation does not rely on any paid OpenAI API, making it accessible to anyone.
MIT License
2.47k stars 383 forks source link

Update #61

Closed FlamingFury00 closed 1 year ago

FlamingFury00 commented 1 year ago

UPDATE:


Piccolo aggiornamento per completare un pò il file .env con alcune impostazioni, ma forse ne metterò altre :)

IntelligenzaArtificiale commented 1 year ago

Tutto perfetto 🦾 Stiamo lavorando, a breve rilasciamo anche BingChat come nuove modello LLM. Siamo riusciti ad applicare più o meno lo stesso principio di reverse engineering su BingChat , sfruttando sempre i cookie di autenticazione.

BingChat dovrebbe avere GPT4 come motore , forse riusciremo finalmente ad avere Agenti più performati.

Grazie mille per l aiuto e per tutti i contributi che stai dando al progetto. Se vuoi essere menzionato in qualche parte specifica del ReadMe non farti problemi a chiedere 🤗🚀👨‍💻

FlamingFury00 commented 1 year ago

Ah, aspetto che esca allora 👍 . BingChat ha anche la possibilità di cercare direttamente su internet, quindi è una cosa in più molto utile. Secondo me nel README potreste mettere l'uso del file .env in modo che anche persone meno pratiche sappiano come impostare il tutto. No, sinceramente mi basta quella menzione che mi avete già fatto nel README :). Poi un'altra cosa, ho sbagliato a mettere di riavviare Visual Studio dopo aver installato l'estensione, bisogna chiuderlo completamente visto che poi lo si apre direttamente nella cartella del progetto. Dovreste cambiare quello nel README, scusate l'errore.

IntelligenzaArtificiale commented 1 year ago

Ok perfetto correggiamo. Per quanto riguarda il file .env lo abbiamo citato nei vai HOW TU RUN però si aggiungeremo più dettagli.

Giusto per tenerti aggiornato: Abbiamo fatto girare i primi test con BingChat e anche se è molto più potente di chatgpt o HuggingChat purtroppo l hanno bloccata sotto moltissimi punti di vista. E quindi spesso si rifiuta di compiere i task con AUTOGPT perché si rifiuta di voler scrivere un file, oppure se gli chiedindi scrivere un articolo ti riposponde che non è suo compito è blocca la chat. Domani facciamo altri test.

FlamingFury00 commented 1 year ago

Capisco. Sapevo che Bing fosse più restrittiva rispetto a ChatGPT, però non pensavo fino a questo punto. Un altro punto a sfavore di BingChat è che ha un limite di 20 richieste per chat, poi bisogna resettarla. Forse dovreste pensare di mettere la possibilità di utilizzare i modelli LLM da HuggingFace localmente, in modo che l'utente può scegliere quello che più serve ed è utile al suo scopo. La pecca di questo è che i transformer sono veramente pesanti e un normale computer non riuscirebbe a coprire la potenza di calcolo necessaria (anche con gpu integrata). Purtroppo non ci sono per ora molte alternative, se non cominciare ad utilizzare di nuovo le API di xTekky da siti affidabili come you o forefront... Pure questo metodo però può portare a problemi legali (come sta succedendo a xTekky) 😅. Comunque confido in voi che riuscirete a trovare qualche altro metodo 💪

IntelligenzaArtificiale commented 1 year ago

Abbiamo aggiunto BingChat. Stamattina durante un test su AUTOGPT ha dato il meglio di se. Ha creato una cosa come 26 file di testo per rispondere alla richiesta. "Can you help me to create an example business plan for my AI Startup" . Abbiamo notato una grande differenza di intelligenza. Le ricerche erano molto più coerenti e il loop sembra sparito.

Abbiamo ancora il problema dei troppi token passati al modello Embedding di HuggingFace ma apparte il print a schermo non fa interferenze con il funzionamento.

E un altro problema è che ogni tanto BingChat si rifiuta di fare alcune cose, e quindi AutoGPT entra in Loop perché BingChat smette di rispondere. Crediamo di riuscire a sistemare questo problema entro pochi giorni.

Nel frattempo stiamo lavorando per implementare anche Google Bard.

Se ti va di fare qualche test con la nuova Bing Chat e AUTOGPT facci sapere come va.

BingChat su BabyAgi non funziona, perché si rifiuta di fare giochi di ruolo. Vanno riscritti i prompt.

IntelligenzaArtificiale commented 1 year ago

Abbiamo che aggiunto al Readme le istruzioni per il file .env e per configurare il cookie di BingChat.

Entro stasera non faremmo più commit, quindi se vuoi fare qualche modifica o qualche pull vai tranquillo 👨‍💻

FlamingFury00 commented 1 year ago

Benissimo, più tardi proverò allora 💪. Come pensate di superare le limitazioni di Bing nel non rispondere? Google Bard ottimo anche quello, solo molto più propenso a sbagliare rispetto a GPT o Bing. Non credo di riuscire a fare pull oggi 😅, perciò se dovete aggiornare qualcosa fate pure!

FlamingFury00 commented 1 year ago

E grazie di tenermi aggiornato, mi fa piacere 👍

FlamingFury00 commented 1 year ago

@IntelligenzaArtificiale Allora ho provato BingChat, ma non funziona bene. Prima cosa utilizza playwright, quindi non si può vedere l'output, le risposte che dà (per il debug sarebbe molto utile invece). Seconda cosa, é molto più limitato di quanto pensassi. Oltre le 20 risposte per chat che può dare (infatti dopo che arriva a quel numbero dà errore), ha anche un limite di messaggi per giorno. Ieri sono arrivato alla fine in poco tempo, inoltre non ha scritto niente su file (senza debug non so il motivo). Poi ci sono alcuni miglioramenti che voglio fare per rendere il tutto più semplice da utilizzare ed é probabile che oggi farò una pull request 👍🏻

IntelligenzaArtificiale commented 1 year ago

@FlamingFury00 ieri sera abbiamo sbagliato la cartella finale del commit 😅 è per questo che non ti scriveva i file. Non avevamo modificato alcune righe in AUTOGPT.py e nel wrapper di BingChat.

Comunque quel limite ( dei 20 messaggi a chat ) è buypassabile con un contatore che al 19 messaggio aspetta 20 secondi e crea una nuova chat da zero. Si perde un po sulla memoria cambiando conversazione ma la soluzione sembra tenere.

Per quanto riguarda gli altri limiti dei messaggi giornalieri NON è buypassabile ammenoche non si anno più utenze BingChat .

Abbiamo riscritto completamente i PromptTemplate per BabyAgi e adesso funziona anche con BingChat e abbiamo abilitato una scrittura file, al momento manuale anche su BabyAgi.

Entro stasera carichiamo anche il connettore di Bard di google ( per noi in Italia funzionante solo con VPN ) .

Così con i connettori ( CRACCATI possiamo dire ) abbiamo finito .

IntelligenzaArtificiale commented 1 year ago

Per quanto riguarda i debug degli agenti AUTONOMI dentro i vari file ( come AUTOGPT.PY ) trovi sempre una variabile VERBOSE dentro l inizializzazione dell agente.

Settala su True ti aiuterà a capire i passaggi intermedi.

IntelligenzaArtificiale commented 1 year ago

Ci fa super piacere tenerti aggiornato 👨‍💻🤗

I prossimi step per il repository ( anche se un po contro la nostra vision ) sarà quello di implementare i modelli locali ( che richiederanno come minimo >= 16gb Ram ) come StbleLm , WizardLM , Vicuna, Llam, etc

L'implementazione di questi modelli vorremmo riuscire a fare tramite inferenza api su huggingface. Però il problema è che le inferenze api di Huggingface sono limitate a pochi token di risposta. Mentre se il modello è hostato localmente non ci sono questi problemi.

Abbiamo un po paura che mettendo questa Feature il repository si riempirà di problemi di installazione e inferenza dei modelli locali. Infatti prima vogliamo pensare bene a una soluzione di autoinstallazione dei modelli.

Così che quando l utente scarica il repository si troverà un file , che semplicemente eseguendo gli chiederà prima un paio di domande sulle specifiche tecniche del PC ( come quantità ram e disponibilità di GPU )

E in base alle risposte scaricherà i modelli locali. ( Ad esempio se hai 24gb di ram e una GPU installerà Vicuna13b ; Se invece hai 16gb di ram e sola CPU installerà Llama.cpp )

Quando si faranno partire gli agenti, ci sarà un piccolo check dei modelli che sono stati scaricati.

Tu cosa ne pensi di questa soluzione e del fatto di aggiungere i modelli Locali ? Si sincero se pensi che ci siano altri problemi che hanno la precedenza non farti problemi a dircelo 🤗❤

FlamingFury00 commented 1 year ago

L'implementazione dei modelli locali è una buona cosa, ma come dite voi e come ho detto anche io sopra, il problema è la potenza di calcolo che serve per far girare un modello decente. Le API inferenza purtroppo sono limitate come avete giustamente detto, però potrebbero comunque essere una buona alternativa. Prima di fare un aggiornamento così grande forse sarebbe meglio ottimizzare prima tutto quello che avete fatto fin'ora sistemando il più possibile i vari Issue, in modo che non ci siano problemi in futuro. Quello del file che scarica automaticamente il modello scelto in base alla potenza del proprio PC è una buona idea 👍

IntelligenzaArtificiale commented 1 year ago

Ottimo allora per qualche giorno ci fermiamo con gli sviluppi pesanti e ottimizziamo il tutto, lasciando tempo a te o a chi vorrà di fare push ❤🤗

FlamingFury00 commented 1 year ago

Va bene, ho già visto qualcosa che può essere migliorato perciò appena avrò un po' di tempo farò la pull request :)

FlamingFury00 commented 1 year ago

@IntelligenzaArtificiale Allora dopo l'ultimo aggiornamento che avete fatto ci sono un sacco di errori. Innanzitutto non avete messo l'API di Bard. Seconda cosa, BabyAGI non funziona più, fa cose strane. Mi ha creato una cartella nominata con l'obiettivo che gli avevo dato e se lo riavvio si blocca dicendo che esiste già 😅. Ci sono anche altri errori più piccoli, ma comunque bisogna sistemare parecchio ora. Meno male che vi fermate per un pò con aggiornamenti pesanti 😂