def spreche_text(text):
engine.say(text) # Sage den Text
engine.runAndWait() # Warte, bis die Sprachausgabe beendet ist
Hauptschleife
while True:
benutzereingabe = input("Gib eine Frage ein (oder 'exit' zum Beenden): ")
if benutzereingabe.lower() == 'exit':
break
antwort = model(benutzereingabe) # Antwort vom Modell erhalten
print("Antwort:", antwort) # Antwort ausgeben
spreche_text(antwort) # Antwort sprechen
Microsoft Windows [Version 10.0.22631.4317]
(c) Microsoft Corporation. Alle Rechte vorbehalten.
C:\Users\marti>python gpt4all_sprachausgabe.py
Traceback (most recent call last):
File "C:\Users\marti\gpt4all_sprachausgabe.py", line 8, in
model = GPT4All('gpt4all')
File "C:\Users\marti\AppData\Local\Programs\Python\Python310\lib\site-packages\gpt4all\gpt4all.py", line 235, in init
self.config: ConfigType = self.retrieve_model(model_name, model_path=model_path, allow_download=allow_download, verbose=verbose)
File "C:\Users\marti\AppData\Local\Programs\Python\Python310\lib\site-packages\gpt4all\gpt4all.py", line 341, in retrieve_model
config["path"] = str(cls.download_model(
File "C:\Users\marti\AppData\Local\Programs\Python\Python310\lib\site-packages\gpt4all\gpt4all.py", line 393, in download_model
response = make_request()
File "C:\Users\marti\AppData\Local\Programs\Python\Python310\lib\site-packages\gpt4all\gpt4all.py", line 386, in make_request
raise ValueError(f'Request failed: HTTP {response.status_code} {response.reason}')
ValueError: Request failed: HTTP 404 Not Found
Bug Report
Steps to Reproduce
import pyttsx3 from gpt4all import GPT4All
Sprachausgabe initialisieren
engine = pyttsx3.init()
GPT4All-Modell laden
model = GPT4All('gpt4all')
Funktion für die Sprachausgabe
def spreche_text(text): engine.say(text) # Sage den Text engine.runAndWait() # Warte, bis die Sprachausgabe beendet ist
Hauptschleife
while True: benutzereingabe = input("Gib eine Frage ein (oder 'exit' zum Beenden): ") if benutzereingabe.lower() == 'exit': break
C:\Users\marti>python gpt4all_sprachausgabe.py Traceback (most recent call last): File "C:\Users\marti\gpt4all_sprachausgabe.py", line 8, in
model = GPT4All('gpt4all')
File "C:\Users\marti\AppData\Local\Programs\Python\Python310\lib\site-packages\gpt4all\gpt4all.py", line 235, in init
self.config: ConfigType = self.retrieve_model(model_name, model_path=model_path, allow_download=allow_download, verbose=verbose)
File "C:\Users\marti\AppData\Local\Programs\Python\Python310\lib\site-packages\gpt4all\gpt4all.py", line 341, in retrieve_model
config["path"] = str(cls.download_model(
File "C:\Users\marti\AppData\Local\Programs\Python\Python310\lib\site-packages\gpt4all\gpt4all.py", line 393, in download_model
response = make_request()
File "C:\Users\marti\AppData\Local\Programs\Python\Python310\lib\site-packages\gpt4all\gpt4all.py", line 386, in make_request
raise ValueError(f'Request failed: HTTP {response.status_code} {response.reason}')
ValueError: Request failed: HTTP 404 Not Found
C:\Users\marti>
Expected Behavior
Your Environment