Les posts de bots piégés par nospam alimentent parfois le tmp/cache/contextes
Sur un site qui accèpte les forums en modération a posteriori les robots se font régulièrement piéger par nospam. Mais de temps en temps ça génère de la pollution dans tmp/cache/contextes sans doute parce qu'ils mettent des textes longs avec plein de liens.
Un exemple des logs générés:
2022-09-12 13:29:11 45.72.45.152 3366184 Public warning Contextes AJAX forces en fichiers ! Cela arrive lorsque la valeur du contexte depasse la longueur maximale autorisee (2000). Ici : 2056. 2022-09-12 13:29:11 45.72.45.152 3366184 Public warning Contextes AJAX forces en fichiers ! Cela arrive lorsque la valeur du contexte depasse la longueur maximale autorisee (2000). Ici : 2032. 2022-09-12 13:29:11 45.72.45.152 3366184 Public !info form forum:email_nobot rempli: catherinestephensen@arcor.de"
Dans cet exemple le robot passe à 13:29 ce qui génère deux (?) dépassements de la valeur de 2000 de Contextes AJAX et deux fichiers de 3k dans le dossier tmp/cache/contextes extrait du premier fichier jusqu'au mail du spammeur
3e24ed969ebdc2c276cdb10f384a8bd394aa38de04fd32998af10f14b492a6ff:a:30:{s:17:"formulaire_action";s:5:"forum";s:22:"formulaire_action_args";s:152:"T0WhgskMeD0We2+KjYuX3mlZhWxh0sprCaQ0CbJTzFc3RSXnJOPcL19iqSZU1VaG//LddpIuAsD3LG27BBwzulsGCLx9S58Yv/yShCsblckwPpGBcaJvkl8Pl0Pvr+Nitr75cAb2GA12HLO/LFA5hw==";s:22:"formulaire_action_sign";s:0:"";s:10:"id_article";s:4:"1000";s:8:"id_objet";i:1000;s:5:"objet";s:7:"article";s:8:"id_forum";s:1:"0";s:3:"arg";s:0:"";s:4:"hash";s:0:"";s:6:"verif_";s:2:"ok";s:8:"autosave";s:38:"forum_9db5bef278d0096b26e8ae8cc10ae8fc";s:6:"_jeton";s:64:"661979a174967fd2e05887dc15b2db332c09f927765d16ed99ecea55315233b1";s:11:"session_nom";s:9:"Catherine";s:11:"email_nobot";s:28:"catherinestephensen@arcor.de";s:13:"session_email";s:28:"catherinestephensen@arcor.de"
extrait du deuxième fichier jusqu'au mail du spammeur
3f3aaeadf366f83f3a9202646a34bdce9dfacea58f97a8b661c679ae6757b070:a:31:{s:17:"formulaire_action";s:5:"forum";s:22:"formulaire_action_args";s:152:"T0WhgskMeD0We2+KjYuX3mlZhWxh0sprCaQ0CbJTzFc3RSXnJOPcL19iqSZU1VaG//LddpIuAsD3LG27BBwzulsGCLx9S58Yv/yShCsblckwPpGBcaJvkl8Pl0Pvr+Nitr75cAb2GA12HLO/LFA5hw==";s:22:"formulaire_action_sign";s:0:"";s:10:"id_article";s:4:"1000";s:8:"id_objet";i:1000;s:5:"objet";s:7:"article";s:8:"id_forum";s:1:"0";s:3:"arg";s:0:"";s:4:"hash";s:0:"";s:6:"verif_";s:2:"ok";s:8:"autosave";s:38:"forum_9db5bef278d0096b26e8ae8cc10ae8fc";s:6:"_jeton";s:64:"661979a174967fd2e05887dc15b2db332c09f927765d16ed99ecea55315233b1";s:11:"session_nom";s:9:"Catherine";s:11:"email_nobot";s:28:"catherinestephensen@arcor.de";s:13:"session_email";s:28:"catherinestephensen@arcor.de"
138 fichiers de 3k depuis le 3 sept sur ce site. Ca reste supportable mais ce serait mieux sans. La question est donc y-aurait-il moyen d'empêcher de générer ce dépassement dans ce cas ? ou de ne pas créer le fichier...