facebookresearch / radioactive_data

This technique modifies image data so that any model trained on it will bear an identifiable mark.
Other
38 stars 9 forks source link

missing files #4

Closed NicolasMICAUX closed 3 years ago

NicolasMICAUX commented 3 years ago

Bonjour M. Sablayrolles, Je suis un étudiant de Télécom Paris, et j'essaie depuis quelque jour de reproduire les résultats de votre papier. J'ai des difficultés car il me manque beaucoup de fichiers dont le rôle ou le contenu sont peu clairs :

CACHE_DATASET = {
    '/datasets01_101/imagenet_full_size/061417/train': 'checkpoint/imagenet_train.pkl',
    '/datasets01_101/imagenet_full_size/061417/val': 'checkpoint/imagenet_val.pkl',
    '/datasets01_101/places205/121517/pytorch/train': 'checkpoint/places205_train.pkl',
    '/datasets01_101/places205/121517/pytorch/val': 'checkpoint/places205_val.pkl',
    '/private/home/data/CUB_200_2011/train': 'checkpoint/cub_train.pkl',
    '/private/home/data/CUB_200_2011/val': 'checkpoint/cub_val.pkl',
    '/private/home/rvj/data/google-landmark-2019/images/train': 'checkpoint/guismay/google-landmark-2019_images_train.pkl',
    '/private/home/rvj/data/google-landmark-2019/images/valid': 'checkpoint/guismay/google-landmark-2019_images_valid.pkl',
    '/private/home/rvj/data/google-landmark-2019/images/test': 'checkpoint/guismay/google-landmark-2019_images_test.pkl',
    '/private/home/rvj/data/google-landmark-2018/test': 'checkpoint/google-landmark-2019_images_test_2018.pkl',
    "/private/home/hoss/data/google_landmarks_recognition_2019_test_final": "checkpoint/google-landmark-2019_images_test_final.pkl"
}
"/checkpoint/asablayrolles/radioactive_data/imagenet_ckpt_2/features/valid_resnet18_center.pth"
SUBCLASSES = {
    "imagenet": {
        n_cl: list(np.load("/private/home/asablayrolles/data/radioactive/imagenet_classes/%d.npy" % n_cl)) for n_cl in [10, 20, 50, 100, 200, 500]
    }
}

(j'imagine que les liens suivants sont les emplacements pour les fichiers des datasets, mais je ne sais pas trop ce qui entendu par "vanilla_test", etc.)

DATASETS = {
    'cifar10': {
        'train': '/private/home/asablayrolles/data/radioactive/cifar10/',
        'valid': '/private/home/asablayrolles/data/radioactive/cifar10/vanilla_test',
        # 'test': '/private/home/asablayrolles/data/radioactive/cifar10/vanilla_test',
        'num_classes': 10,
        'img_size': 40,
        'crop_size': 32,
    },
    'imagenet': {
        'train': '/datasets01_101/imagenet_full_size/061417/train',
        'valid': '/datasets01_101/imagenet_full_size/061417/val',
        'num_classes': 1000,
        'img_size': 256,
        'crop_size': 224,
    },
    'places205': {
        'train': '/datasets01_101/places205/121517/pytorch/train',
        'valid': '/datasets01_101/places205/121517/pytorch/val',
        'num_classes': 205,
        'img_size': 256,
        'crop_size': 224,
    }
}

Pourriez vous prendre quelques minutes pour nous uploader ces fichiers ou nous décrire leur contenu/la manière de les générer ?

Je vous remercie,

Nicolas Micaux

alexandresablayrolles commented 3 years ago

(answering in English in case this issue is useful for other people)