Closed beex-okamura closed 2 weeks ago
ご利用ありがとうございます。 開発者ドキュメントを読む限り 3072 でただしそうなのですが、私のほうでも同様のエラーを再現しました。 確認しますので少々お待ち下さい。 https://docs.aws.amazon.com/bedrock/latest/userguide/model-parameters-titan-text.html
P.S. 急ぎであれば、そこを3000になおしてしまって動かすのでOKです。 リポジトリ側の修正は少々お待ち下さい、の意図です。
メモ: invoke_modelは 3072 でも動くが converse だと 3000じゃないと動かない
ご確認いただきありがとうございます。 承知しました。当面3000に変更して動かします。
こちら、動きがなかったのでソリューション側でも一旦 3000 におとしました。 https://github.com/aws-samples/generative-ai-use-cases-jp/pull/634 Converse API でも 3072 が受け付けられるようになったら戻します。
お世話になります。 現在こちらのアプケーションのモデルを、費用の関係からデフォルトの
anthropic.claude-3-sonnet-20240229-v1:0
からamazon.titan-text-premier-v1:0
に変更して動作確認を行なっております。amazon-bedrock-のモデルを変更する
ドキュメントではtitan-text-premierもサポートされているように記載されておりましたが、モデルを変更後にチャット機能を使用するとAPIPredictTitle Lambdaから
ValidationException: The maximum tokens you requested exceeds the model limit of 3000. Try again with a maximum tokens value that is lower than 3000.
エラーが出力されておりました。以下CloudWatchLogs上のエラー行になります。
調査したところ、TITAN_TEXT_DEFAULT_PARAMS .maxTokensサイズが3,072となっており、3,000に変更したところエラーは解消されました。 https://github.com/aws-samples/generative-ai-use-cases-jp/blob/3bb823c920d553b0791f68b48406ac59d39eae4b/packages/cdk/lambda/utils/models.ts#L82
こちらは正しい修正ではないと考えておりますが、正しい値、もしくはcdkにて回避可能なのかご教授頂けますでしょうか? https://aws.amazon.com/jp/bedrock/titan/#:~:text=モデルバージョン-,Amazon%20Titan%20Text%20Premier,-Amazon%20Titan%20Text