Closed TLX2020 closed 11 months ago
╭─────────────────────────────── Traceback (most recent call last) ────────────────────────────────╮ │ /usr/local/lib/python3.11/dist-packages/sgpt/app.py:167 in main │ │ │ │ 164 │ │ │ caching=cache, │ │ 165 │ │ ) │ │ 166 │ else: │ │ ❱ 167 │ │ full_completion = DefaultHandler(role_class).handle( │ │ 168 │ │ │ prompt, │ │ 169 │ │ │ model=model, │ │ 170 │ │ │ temperature=temperature, │ │ │ │ ╭─────────────────────────────── locals ────────────────────────────────╮ │ │ │ cache = True │ │ │ │ chat = None │ │ │ │ code = False │ │ │ │ create_role = None │ │ │ │ describe_shell = False │ │ │ │ editor = False │ │ │ │ install_integration = None │ │ │ │ list_chats = None │ │ │ │ list_roles = None │ │ │ │ model = 'gpt-3.5-turbo' │ │ │ │ prompt = 'hello world' │ │ │ │ repl = None │ │ │ │ role = None │ │ │ │ role_class = <sgpt.role.SystemRole object at 0x7f1daba9fb10> │ │ │ │ shell = True │ │ │ │ show_chat = None │ │ │ │ show_role = None │ │ │ │ stdin_passed = False │ │ │ │ temperature = 0.1 │ │ │ │ top_probability = 1.0 │ │ │ ╰───────────────────────────────────────────────────────────────────────╯ │ │ │ │ /usr/local/lib/python3.11/dist-packages/sgpt/handlers/handler.py:33 in handle │ │ │ │ 30 │ │ stream = cfg.get("DISABLE_STREAMING") == "false" │ │ 31 │ │ if not stream: │ │ 32 │ │ │ typer.echo("Loading...\r", nl=False) │ │ ❱ 33 │ │ for word in self.get_completion(messages=messages, kwargs): │ │ 34 │ │ │ typer.secho(word, fg=self.color, bold=True, nl=False) │ │ 35 │ │ │ full_completion += word │ │ 36 │ │ typer.echo("\033[K" if not stream else "") # Overwrite "loading..." │ │ │ │ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │ │ │ full_completion = '' │ │ │ │ kwargs = { │ │ │ │ │ 'model': 'gpt-3.5-turbo', │ │ │ │ │ 'temperature': 0.1, │ │ │ │ │ 'top_probability': 1.0, │ │ │ │ │ 'caching': True │ │ │ │ } │ │ │ │ messages = [ │ │ │ │ │ { │ │ │ │ │ │ 'role': 'user', │ │ │ │ │ │ 'content': '###\nRole name: shell\nProvide only zsh commands for │ │ │ │ Linux/Kali GNU/Linux Rolling '+222 │ │ │ │ │ } │ │ │ │ ] │ │ │ │ prompt = 'hello world' │ │ │ │ self = <sgpt.handlers.default_handler.DefaultHandler object at 0x7f1daba9f210> │ │ │ │ stream = True │ │ │ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │ │ │ │ /usr/local/lib/python3.11/dist-packages/sgpt/handlers/handler.py:25 in get_completion │ │ │ │ 22 │ │ raise NotImplementedError │ │ 23 │ │ │ 24 │ def get_completion(self, kwargs: Any) -> Generator[str, None, None]: │ │ ❱ 25 │ │ yield from self.client.get_completion(kwargs) │ │ 26 │ │ │ 27 │ def handle(self, prompt: str, kwargs: Any) -> str: │ │ 28 │ │ messages = self.make_messages(self.make_prompt(prompt)) │ │ │ │ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │ │ │ kwargs = { │ │ │ │ │ 'messages': [ │ │ │ │ │ │ { │ │ │ │ │ │ │ 'role': 'user', │ │ │ │ │ │ │ 'content': '###\nRole name: shell\nProvide only zsh commands for │ │ │ │ Linux/Kali GNU/Linux Rolling '+222 │ │ │ │ │ │ } │ │ │ │ │ ], │ │ │ │ │ 'model': 'gpt-3.5-turbo', │ │ │ │ │ 'temperature': 0.1, │ │ │ │ │ 'top_probability': 1.0, │ │ │ │ │ 'caching': True │ │ │ │ } │ │ │ │ self = <sgpt.handlers.default_handler.DefaultHandler object at 0x7f1daba9f210> │ │ │ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │ │ │ │ /usr/local/lib/python3.11/dist-packages/sgpt/client.py:98 in get_completion │ │ │ │ 95 │ │ :param caching: Boolean value to enable/disable caching. │ │ 96 │ │ :return: String generated completion. │ │ 97 │ │ """ │ │ ❱ 98 │ │ yield from self._request( │ │ 99 │ │ │ messages, │ │ 100 │ │ │ model, │ │ 101 │ │ │ temperature, │ │ │ │ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │ │ │ caching = True │ │ │ │ messages = [ │ │ │ │ │ { │ │ │ │ │ │ 'role': 'user', │ │ │ │ │ │ 'content': '###\nRole name: shell\nProvide only zsh commands for │ │ │ │ Linux/Kali GNU/Linux Rolling '+222 │ │ │ │ │ } │ │ │ │ ] │ │ │ │ model = 'gpt-3.5-turbo' │ │ │ │ self = <sgpt.client.OpenAIClient object at 0x7f1daba9e810> │ │ │ │ temperature = 0.1 │ │ │ │ top_probability = 1.0 │ │ │ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │ │ │ │ /usr/local/lib/python3.11/dist-packages/sgpt/cache.py:39 in wrapper │ │ │ │ 36 │ │ │ │ yield cache_file.read_text() │ │ 37 │ │ │ │ return │ │ 38 │ │ │ result = "" │ │ ❱ 39 │ │ │ for i in func(*args, **kwargs): │ │ 40 │ │ │ │ result += i │ │ 41 │ │ │ │ yield i │ │ 42 │ │ │ cache_file.write_text(result) │ │ │ │ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │ │ │ args = ( │ │ │ │ │ <sgpt.client.OpenAIClient object at 0x7f1daba9e810>, │ │ │ │ │ [ │ │ │ │ │ │ { │ │ │ │ │ │ │ 'role': 'user', │ │ │ │ │ │ │ 'content': '###\nRole name: shell\nProvide only zsh commands for │ │ │ │ Linux/Kali GNU/Linux Rolling '+222 │ │ │ │ │ │ } │ │ │ │ │ ], │ │ │ │ │ 'gpt-3.5-turbo', │ │ │ │ │ 0.1, │ │ │ │ │ 1.0 │ │ │ │ ) │ │ │ │ cache_file = PosixPath('/tmp/cache/153c72629fe26ad1fe494cb0f2ca7142') │ │ │ │ cache_key = '153c72629fe26ad1fe494cb0f2ca7142' │ │ │ │ func = <function OpenAIClient._request at 0x7f1dabbd31a0> │ │ │ │ kwargs = {} │ │ │ │ result = '' │ │ │ │ self = <sgpt.cache.Cache object at 0x7f1dac7f1b90> │ │ │ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │ │ │ │ /usr/local/lib/python3.11/dist-packages/sgpt/client.py:61 in _request │ │ │ │ 58 │ │ │ timeout=REQUEST_TIMEOUT, │ │ 59 │ │ │ stream=stream, │ │ 60 │ │ ) │ │ ❱ 61 │ │ response.raise_for_status() │ │ 62 │ │ # TODO: Optimise. │ │ 63 │ │ # https://github.com/openai/openai-python/blob/237448dc072a2c062698da3f9f512fae3 │ │ 64 │ │ if not stream: │ │ │ │ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │ │ │ data = { │ │ │ │ │ 'messages': [ │ │ │ │ │ │ { │ │ │ │ │ │ │ 'role': 'user', │ │ │ │ │ │ │ 'content': '###\nRole name: shell\nProvide only zsh commands │ │ │ │ for Linux/Kali GNU/Linux Rolling '+222 │ │ │ │ │ │ } │ │ │ │ │ ], │ │ │ │ │ 'model': 'gpt-3.5-turbo', │ │ │ │ │ 'temperature': 0.1, │ │ │ │ │ 'top_p': 1.0, │ │ │ │ │ 'stream': True │ │ │ │ } │ │ │ │ endpoint = 'https://api.openai.com/v1/chat/completions' │ │ │ │ messages = [ │ │ │ │ │ { │ │ │ │ │ │ 'role': 'user', │ │ │ │ │ │ 'content': '###\nRole name: shell\nProvide only zsh commands for │ │ │ │ Linux/Kali GNU/Linux Rolling '+222 │ │ │ │ │ } │ │ │ │ ] │ │ │ │ model = 'gpt-3.5-turbo' │ │ │ │ response = <Response [429]> │ │ │ │ self = <sgpt.client.OpenAIClient object at 0x7f1daba9e810> │ │ │ │ stream = True │ │ │ │ temperature = 0.1 │ │ │ │ top_probability = 1.0 │ │ │ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │ │ │ │ /usr/local/lib/python3.11/dist-packages/requests/models.py:1021 in raise_for_status │ │ │ │ 1018 │ │ │ ) │ │ 1019 │ │ │ │ 1020 │ │ if http_error_msg: │ │ ❱ 1021 │ │ │ raise HTTPError(http_error_msg, response=self) │ │ 1022 │ │ │ 1023 │ def close(self): │ │ 1024 │ │ """Releases the connection back to the pool. Once this method has been │ │ │ │ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │ │ │ http_error_msg = '429 Client Error: Too Many Requests for url: │ │ │ │ https://api.openai.com/v1/chat/comp'+7 │ │ │ │ reason = 'Too Many Requests' │ │ │ │ self = <Response [429]> │ │ │ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │ ╰──────────────────────────────────────────────────────────────────────────────────────────────────╯ HTTPError: 429 Client Error: Too Many Requests for url: https://api.openai.com/v1/chat/completions
I didn't ask any questions, how do I fix this?
Please read before you report! #201 covers this. Close the issue if this helps!
╭─────────────────────────────── Traceback (most recent call last) ────────────────────────────────╮ │ /usr/local/lib/python3.11/dist-packages/sgpt/app.py:167 in main │ │ │ │ 164 │ │ │ caching=cache, │ │ 165 │ │ ) │ │ 166 │ else: │ │ ❱ 167 │ │ full_completion = DefaultHandler(role_class).handle( │ │ 168 │ │ │ prompt, │ │ 169 │ │ │ model=model, │ │ 170 │ │ │ temperature=temperature, │ │ │ │ ╭─────────────────────────────── locals ────────────────────────────────╮ │ │ │ cache = True │ │ │ │ chat = None │ │ │ │ code = False │ │ │ │ create_role = None │ │ │ │ describe_shell = False │ │ │ │ editor = False │ │ │ │ install_integration = None │ │ │ │ list_chats = None │ │ │ │ list_roles = None │ │ │ │ model = 'gpt-3.5-turbo' │ │ │ │ prompt = 'hello world' │ │ │ │ repl = None │ │ │ │ role = None │ │ │ │ role_class = <sgpt.role.SystemRole object at 0x7f1daba9fb10> │ │ │ │ shell = True │ │ │ │ show_chat = None │ │ │ │ show_role = None │ │ │ │ stdin_passed = False │ │ │ │ temperature = 0.1 │ │ │ │ top_probability = 1.0 │ │ │ ╰───────────────────────────────────────────────────────────────────────╯ │ │ │ │ /usr/local/lib/python3.11/dist-packages/sgpt/handlers/handler.py:33 in handle │ │ │ │ 30 │ │ stream = cfg.get("DISABLE_STREAMING") == "false" │ │ 31 │ │ if not stream: │ │ 32 │ │ │ typer.echo("Loading...\r", nl=False) │ │ ❱ 33 │ │ for word in self.get_completion(messages=messages, kwargs): │ │ 34 │ │ │ typer.secho(word, fg=self.color, bold=True, nl=False) │ │ 35 │ │ │ full_completion += word │ │ 36 │ │ typer.echo("\033[K" if not stream else "") # Overwrite "loading..." │ │ │ │ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │ │ │ full_completion = '' │ │ │ │ kwargs = { │ │ │ │ │ 'model': 'gpt-3.5-turbo', │ │ │ │ │ 'temperature': 0.1, │ │ │ │ │ 'top_probability': 1.0, │ │ │ │ │ 'caching': True │ │ │ │ } │ │ │ │ messages = [ │ │ │ │ │ { │ │ │ │ │ │ 'role': 'user', │ │ │ │ │ │ 'content': '###\nRole name: shell\nProvide only zsh commands for │ │ │ │ Linux/Kali GNU/Linux Rolling '+222 │ │ │ │ │ } │ │ │ │ ] │ │ │ │ prompt = 'hello world' │ │ │ │ self = <sgpt.handlers.default_handler.DefaultHandler object at 0x7f1daba9f210> │ │ │ │ stream = True │ │ │ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │ │ │ │ /usr/local/lib/python3.11/dist-packages/sgpt/handlers/handler.py:25 in get_completion │ │ │ │ 22 │ │ raise NotImplementedError │ │ 23 │ │ │ 24 │ def get_completion(self, kwargs: Any) -> Generator[str, None, None]: │ │ ❱ 25 │ │ yield from self.client.get_completion(kwargs) │ │ 26 │ │ │ 27 │ def handle(self, prompt: str, kwargs: Any) -> str: │ │ 28 │ │ messages = self.make_messages(self.make_prompt(prompt)) │ │ │ │ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │ │ │ kwargs = { │ │ │ │ │ 'messages': [ │ │ │ │ │ │ { │ │ │ │ │ │ │ 'role': 'user', │ │ │ │ │ │ │ 'content': '###\nRole name: shell\nProvide only zsh commands for │ │ │ │ Linux/Kali GNU/Linux Rolling '+222 │ │ │ │ │ │ } │ │ │ │ │ ], │ │ │ │ │ 'model': 'gpt-3.5-turbo', │ │ │ │ │ 'temperature': 0.1, │ │ │ │ │ 'top_probability': 1.0, │ │ │ │ │ 'caching': True │ │ │ │ } │ │ │ │ self = <sgpt.handlers.default_handler.DefaultHandler object at 0x7f1daba9f210> │ │ │ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │ │ │ │ /usr/local/lib/python3.11/dist-packages/sgpt/client.py:98 in get_completion │ │ │ │ 95 │ │ :param caching: Boolean value to enable/disable caching. │ │ 96 │ │ :return: String generated completion. │ │ 97 │ │ """ │ │ ❱ 98 │ │ yield from self._request( │ │ 99 │ │ │ messages, │ │ 100 │ │ │ model, │ │ 101 │ │ │ temperature, │ │ │ │ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │ │ │ caching = True │ │ │ │ messages = [ │ │ │ │ │ { │ │ │ │ │ │ 'role': 'user', │ │ │ │ │ │ 'content': '###\nRole name: shell\nProvide only zsh commands for │ │ │ │ Linux/Kali GNU/Linux Rolling '+222 │ │ │ │ │ } │ │ │ │ ] │ │ │ │ model = 'gpt-3.5-turbo' │ │ │ │ self = <sgpt.client.OpenAIClient object at 0x7f1daba9e810> │ │ │ │ temperature = 0.1 │ │ │ │ top_probability = 1.0 │ │ │ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │ │ │ │ /usr/local/lib/python3.11/dist-packages/sgpt/cache.py:39 in wrapper │ │ │ │ 36 │ │ │ │ yield cache_file.read_text() │ │ 37 │ │ │ │ return │ │ 38 │ │ │ result = "" │ │ ❱ 39 │ │ │ for i in func(*args, **kwargs): │ │ 40 │ │ │ │ result += i │ │ 41 │ │ │ │ yield i │ │ 42 │ │ │ cache_file.write_text(result) │ │ │ │ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │ │ │ args = ( │ │ │ │ │ <sgpt.client.OpenAIClient object at 0x7f1daba9e810>, │ │ │ │ │ [ │ │ │ │ │ │ { │ │ │ │ │ │ │ 'role': 'user', │ │ │ │ │ │ │ 'content': '###\nRole name: shell\nProvide only zsh commands for │ │ │ │ Linux/Kali GNU/Linux Rolling '+222 │ │ │ │ │ │ } │ │ │ │ │ ], │ │ │ │ │ 'gpt-3.5-turbo', │ │ │ │ │ 0.1, │ │ │ │ │ 1.0 │ │ │ │ ) │ │ │ │ cache_file = PosixPath('/tmp/cache/153c72629fe26ad1fe494cb0f2ca7142') │ │ │ │ cache_key = '153c72629fe26ad1fe494cb0f2ca7142' │ │ │ │ func = <function OpenAIClient._request at 0x7f1dabbd31a0> │ │ │ │ kwargs = {} │ │ │ │ result = '' │ │ │ │ self = <sgpt.cache.Cache object at 0x7f1dac7f1b90> │ │ │ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │ │ │ │ /usr/local/lib/python3.11/dist-packages/sgpt/client.py:61 in _request │ │ │ │ 58 │ │ │ timeout=REQUEST_TIMEOUT, │ │ 59 │ │ │ stream=stream, │ │ 60 │ │ ) │ │ ❱ 61 │ │ response.raise_for_status() │ │ 62 │ │ # TODO: Optimise. │ │ 63 │ │ # https://github.com/openai/openai-python/blob/237448dc072a2c062698da3f9f512fae3 │ │ 64 │ │ if not stream: │ │ │ │ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │ │ │ data = { │ │ │ │ │ 'messages': [ │ │ │ │ │ │ { │ │ │ │ │ │ │ 'role': 'user', │ │ │ │ │ │ │ 'content': '###\nRole name: shell\nProvide only zsh commands │ │ │ │ for Linux/Kali GNU/Linux Rolling '+222 │ │ │ │ │ │ } │ │ │ │ │ ], │ │ │ │ │ 'model': 'gpt-3.5-turbo', │ │ │ │ │ 'temperature': 0.1, │ │ │ │ │ 'top_p': 1.0, │ │ │ │ │ 'stream': True │ │ │ │ } │ │ │ │ endpoint = 'https://api.openai.com/v1/chat/completions' │ │ │ │ messages = [ │ │ │ │ │ { │ │ │ │ │ │ 'role': 'user', │ │ │ │ │ │ 'content': '###\nRole name: shell\nProvide only zsh commands for │ │ │ │ Linux/Kali GNU/Linux Rolling '+222 │ │ │ │ │ } │ │ │ │ ] │ │ │ │ model = 'gpt-3.5-turbo' │ │ │ │ response = <Response [429]> │ │ │ │ self = <sgpt.client.OpenAIClient object at 0x7f1daba9e810> │ │ │ │ stream = True │ │ │ │ temperature = 0.1 │ │ │ │ top_probability = 1.0 │ │ │ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │ │ │ │ /usr/local/lib/python3.11/dist-packages/requests/models.py:1021 in raise_for_status │ │ │ │ 1018 │ │ │ ) │ │ 1019 │ │ │ │ 1020 │ │ if http_error_msg: │ │ ❱ 1021 │ │ │ raise HTTPError(http_error_msg, response=self) │ │ 1022 │ │ │ 1023 │ def close(self): │ │ 1024 │ │ """Releases the connection back to the pool. Once this method has been │ │ │ │ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │ │ │ http_error_msg = '429 Client Error: Too Many Requests for url: │ │ │ │ https://api.openai.com/v1/chat/comp'+7 │ │ │ │ reason = 'Too Many Requests' │ │ │ │ self = <Response [429]> │ │ │ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │ ╰──────────────────────────────────────────────────────────────────────────────────────────────────╯ HTTPError: 429 Client Error: Too Many Requests for url: https://api.openai.com/v1/chat/completions