Closed renatolfc closed 2 years ago
Obrigado por compartilhar, também tinha esse problema. Parece que o autor do plugin anda ocupado e não dando muito atenção aos report da galera. Obrigado novamente, aqui deu certo.
Fico feliz que deu certo, @danilo759.
Quanto ao autor, tenho certeza que ele está fazendo o melhor dele. Manter um add-on deste porte é um trabalho considerável.
Por sorte, temos as issues do github para trocar ideias e soluções. 😅
Obrigado, Renato. Esse problema foi resolvido no último release. Me diz se funcionou pra vocês.
Quando encontrar algum problema fique a vontade pra mandar um pull request. Nem sempre tenho tempo pra consertar os problemas prontamente, com a ajuda da comunidade fica mais fácil pra todos. Abraços.
Recentemente assinei GloboPlay + Canais Ao Vivo e comecei a usar o brplay na minha RaspberryPi com LibreElec. Configurei com minhas credenciais e somente com Globo Play habilitado (conforme screenshot abaixo):
O que notei é que, dessa forma, a listagem de canais vinha vazia de maneira intermitente.
Inspecionando os logs, vejo que a lista de canais realmente vem vazia:
Um pouco antes no log, encontrei o seguinte traceback (que, como veremos adiante, é a causa raiz do problema):
Ok. Parece, então, que alguma suposição não é válida ao tentar buscar o fanart de um canal. Pelo fluxo do código,
title_obj
é populado a partir do objetoEPG
. OEPG
imediatamente anterior à exceção no log é este:Ahá!
title_obj
, portanto, é um dict com todos os valoresNone
! É isso que causa a exceção. O problema é que o código supõe erroneamente que, se um membro do objeto/dicttitle
existe, ele será não-nulo (não-nenhum 😄).Vendo o fluxo do código, vemos que a mesma suposição é feita para o membro
poster
e que também falharia nesse caso.Eu resolvi localmente com um patch simplório, mas efetivo:
O correto provavelmente seria, ao invés de usar um except cru como esse, capturar
AttributeError
ou guardar tudo por um... is not None
. No entanto, não tive tempo de fazer isso, dado que a família queria assistir TV. 😅Acabei fazendo um upload da versão com o patch aplicado em scraper_live.py.txt