Closed meian closed 5 months ago
testの実行では、
のみ行っている
許可されない例: https://github.com/kyuridenamida/atcoder-tools の atcoder-tools genコマンド (問題文から入出力を解析しコード生成をするため)
atcoder-tools gen contest-id
をすると入出力ファイルだけでなくて提出用ソースのサンプルファイルも出力されている。
(python力が足りなくてその辺りのソースコードはすぐには特定できなかった)
多分これがルールに抵触していそう
- 許可される例:AtCoder Easy Test
オンメモリでキャッシュとして入出力値を持っていそうだがブラウザ上で処理する前提なのでファイル保存はなさそう
許可されない例: https://github.com/online-judge-tools/oj の一部機能 (問題文から入力を解析してランダムテストの生成などをするため)
「実装をしてサンプルが合ったので提出をしたのに、 WA や RE になってしまった。しかし原因がまったく分からない」という状況になったとき、どうすればいいでしょうか? これにはランダム生成したケースを使ってのデバッグが有効です。
制約を満たす入力をランダムに生成するようなプログラムを実装する (1.) のプログラムを半自動生成するためのツール online-judge-tools/template-generator も用意されています。
提出ソースでなくて調査補助用のソースの生成もNG
- AtCoderのページから、入出力ファイルを自動生成するツールも、この制限には該当しません。
これが明言されているので入出力をファイルに保存するのは問題なさそうだが、NGの事例から提出ソースだけでなくテストのソースに組み込むのもダメそう。
かつ、
入力を解析し、ソースコードを生成するツールは許容されません。
と 入力フォーマット
でなく 入力
を使うこと自体がNGとなっている。
(フォーマットを直接解析しなくてもサンプルから類推できるため?)
以上から、テストコードに入出力を埋め込む形の機能提供はNGと考えられる。
テスト機能として提供できそうな方法としては、
というものであればルールに抵触しない。
DBキャッシュは値を元の形で持ってるのでそのままで大丈夫そう。
ローカルセットアップ時にDBの内容から入出力ファイルを生成して、テストコードは雛形固定で提供するように改修する。
https://info.atcoder.jp/entry/llm-abc-rules-ja
生成AIへの対策として運営から提供されたルールに抵触しないか調査する。
主に、以下の辺り。
対応後にREADMEに対応済の旨を記載する